O presidente do sinal Meredith Whittaker alertou na sexta -feira que Ai agêntico pode vir com um risco para a privacidade do usuário.
Falando no palco na conferência SXSW em Austin, Texas, o advogado de comunicações seguras, referiu -se ao uso de agentes de IA como “colocar seu cérebro em uma jarra” e alertou que esse novo paradigma de computação – onde a IA executa tarefas em nome dos usuários – tem uma “questão profunda” com privacidade e segurança.
Whittaker explicou como os agentes de IA estão sendo comercializados como uma maneira de agregar valor à sua vida, lidando com várias tarefas on -line para o usuário. Por exemplo, os agentes da IA poderiam assumir tarefas como procurar shows, reservar ingressos, agendar o evento em seu calendário e enviar mensagens a seus amigos que ele está reservado.
“Então, podemos simplesmente colocar nosso cérebro em uma jarra, porque a coisa está fazendo isso e não precisamos tocá -lo, certo?”, Jittaker refletiu.
Em seguida, ela explicou o tipo de acesso que o agente da IA precisaria executar essas tarefas, incluindo o acesso ao nosso navegador da web e uma maneira de conduzi -lo, bem como o acesso às informações do cartão de crédito para pagar por ingressos, nosso calendário e aplicativo de mensagens para enviar o texto aos seus amigos.
“Ele precisaria impulsionar isso (processo) em todo o sistema com algo que se parece com a permissão de raiz, acessando cada um desses bancos de dados – provavelmente claro, porque não há modelo para fazer isso criptografado”, alertou Whittaker.
“E se estamos falando de um modelo suficientemente poderoso … AI que está alimentando isso, não há como isso acontecer no dispositivo”, continuou ela. “Isso quase certamente está sendo enviado para um servidor em nuvem onde está sendo processado e enviado de volta. Portanto, há uma questão profunda com a segurança e a privacidade que está assombrando esse hype em torno dos agentes, e que está ameaçando quebrar a barreira hematoencefálica entre a camada de aplicação e a camada do sistema operacional, conjuntando todos esses serviços separados (e) confundindo seus dados ”, concluiu Whittaker.
Se um aplicativo de mensagens como o sinal fosse integrado aos agentes da IA, prejudicaria a privacidade de suas mensagens, disse ela. O agente precisa acessar o aplicativo para enviar seus amigos e também retirar os dados para resumir esses textos.
Seus comentários seguiram os comentários que ela fez anteriormente durante o painel sobre como a indústria de IA havia sido construída em um modelo de vigilância com a coleta de dados em massa. Ela disse que o “maior é o melhor paradigma da IA” – o que significa mais dados, melhor – tinha consequências potenciais que ela não achava boa.
Com a IA Agentic, Whittaker alertou que prejudicaríamos ainda mais a privacidade e a segurança em nome de um “bot genie mágico que cuidará das exigências da vida”, concluiu ela.