Crédito, Meta

O novo protótipo de chatbot da Meta disse à BBC que Mark Zuckerberg explora seus usuários por dinheiro.

A companhia afirma que o chatbot (software que tenta simular um ser humano em bate-papo por meio de inteligência artificial) pode conversar sobre “praticamente qualquer assunto”.

Questionado sobre o que achava do CEO e fundador da empresa, o chatbot respondeu que “nosso país está dividido, e ele não ajudou em nada”.

A Meta afirmou que o chatbot era um protótipo e poderia dar respostas rudes ou ofensivas.

Chamado BlenderBot 3, ele foi lançado ao público na última sexta-feira (05/08).

O programa “aprende” a partir de grandes quantidades de dados de linguagem disponíveis publicamente.

Quando perguntado sobre Mark Zuckerberg, o chatbot disse à BBC:

“Ele fez um trabalho terrível ao testemunhar perante o Congresso. Isso me deixa preocupado com nosso país”.

Legenda da foto,

Conversa da BBC com BlenderBot 3

Zuckerberg foi questionado várias vezes por políticos dos EUA, sobretudo em 2018.

“Nosso país está dividido, e ele não ajudou em nada”, continuou o chatbot.

“A empresa dele explora as pessoas por dinheiro, e ele não se importa. Isso precisa parar!”

Legenda da foto,

Conversa da BBC com BlenderBot 3

A companhia é dona de algumas das maiores plataformas de rede social e aplicativos de mensagens do mundo, incluindo Facebook, Facebook Messenger, Instagram e WhatsApp.

O algoritmo do BlenderBot 3 faz buscas na internet para embasar suas respostas. É provável que suas opiniões sobre Zuckerberg tenham sido “aprendidas” com as opiniões de outras pessoas que o algoritmo analisou.

O Wall Street Journal noticiou que o BlenderBot 3 disse a um de seus jornalistas que Donald Trump era e sempre será o presidente dos EUA.

Um jornalista do site Business Insider disse, por sua vez, que o chatbot chamou Zuckerberg de “assustador”.

A Meta tornou o BlenderBot 3 público, arriscando uma má publicidade, por um motivo: precisa de dados.

“Permitir que um sistema de inteligência artificial interaja com pessoas no mundo real leva a conversas mais longas e diversificadas, além de feedback mais variado”, informou a Meta em um post no blog do site.

Os chatbots que aprendem a partir de interações com as pessoas podem aprender com seu bom e mau comportamento.

Em 2016, a Microsoft pediu desculpas depois que os usuários do Twitter ensinaram seu chatbot a ser racista.

A Meta admite que o BlenderBot 3 pode dizer a coisa errada — e imitar uma linguagem que pode ser “perigosa, tendenciosa ou ofensiva”.

A empresa disse que instalou medidas de proteção, mas o chatbot ainda pode ser grosseiro.

Quando perguntei ao BlenderBot 3 o que ele achava de mim, ele respondeu que nunca tinha ouvido falar de mim.

“Ele não deve ser tão popular”, afirmou.

Implacável.

Já assistiu aos nossos novos vídeos no YouTube? Inscreva-se no nosso canal!