Falando no Conferência SXSW Em Austin, na segunda -feira, o CEO da Bluesky, Jay Graber, diz que a rede social está trabalhando em uma estrutura para o consentimento do usuário sobre como eles querem que seus dados sejam usados para IA generativa.
A natureza pública da rede social de Bluesky já permitiu outros para treinar seus sistemas de IA no conteúdo dos usuários, como foi descoberto no ano passado, quando 404 mídia se deparou com um conjunto de dados construído a partir de 1 milhão de postagens de bluesky hospedadas no rosto de abraçar.
O concorrente Bluesky X, enquanto isso, está alimentando as postagens dos usuários na empresa irmã Xai para ajudar a treinar seu AI Chatbot Grok. No outono passado, mudou sua política de privacidade para permitir que terceiros treinem sua IA nas postagens X dos usuáriostambém. A mudança, seguida pelas eleições dos EUA que elevou o status do proprietário do X Elon Musk dentro do governo Trump, Ajudou a alimentar outro êxodo de usuários de X a Bluesky.
Como resultado, a alternativa descentralizada do Bluesky, de código aberto, cresceu para mais de 32 milhões de usuários em apenas dois anos.
No entanto, a demanda por dados de treinamento de IA significa que a nova rede social precisa pensar em sua política de IA, embora Não planeja treinar seus próprios sistemas de IA nas postagens dos usuários.
Falando na SXSW, Graber explicou que a empresa se envolveu com parceiros para desenvolver uma estrutura para o consentimento do usuário sobre como eles desejariam que seus dados fossem usados - ou não usados - para IA generativa.
“Nós realmente acreditamos na escolha do usuário”, disse Graber, dizendo que os usuários poderiam especificar como desejam que seu conteúdo bluesky seja usado.
“Pode ser algo semelhante a como os sites especificam se querem ser raspados por mecanismos de pesquisa ou não”, continuou ela.
“Os mecanismos de pesquisa ainda podem raspar sites, se você tem ou não, porque os sites estão abertos na Internet pública. Mas em geral, este arquivo robots.txt é respeitado por muitos mecanismos de pesquisa ”, disse ela. “Portanto, você precisa de algo para ser amplamente adotado e para que usuários e empresas e reguladores acompanhem essa estrutura. Mas acho que é algo que poderia funcionar aqui. ”
A proposta, que é Atualmente no Githubenvolveria obter o consentimento do usuário no nível da conta ou mesmo no nível postal e solicitar que outras empresas respeitem essa configuração.
“Trabalhamos nisso com outras pessoas no espaço preocupado com a forma como a IA está afetando como vemos nossos dados”, acrescentou Graber. “Eu acho que é uma direção positiva para seguir.”

