Meta está colocando seu mais recente chatbot de IA na web para o público conversar

Os laboratórios de pesquisa de IA da Meta criaram um novo chatbot de última geração e estão permitindo que membros do público conversem com o sistema para coletar feedback sobre seus recursos.

O bot se chama BlenderBot 3 e pode ser acessado na web. (Embora, no momento, pareça que apenas residentes nos EUA possam fazê-lo.) O BlenderBot 3 é capaz de conversar em geral, diz Meta, mas também responder ao tipo de perguntas que você pode fazer a um assistente digital, “de falar sobre saúde receitas de comida para encontrar comodidades para crianças na cidade.”

O bot é um protótipo e construído no trabalho anterior da Meta com o que é conhecido como modelos de linguagem grandes ou LLMS – software de geração de texto poderoso, mas falho, do qual o GPT-3 da OpenAI é o exemplo mais conhecido. Como todos os LLMs, o BlenderBot é inicialmente treinado em vastos conjuntos de dados de texto, que explora padrões estatísticos para gerar linguagem. Esses sistemas provaram ser extremamente flexíveis e têm sido usados ​​para uma variedade de usos, desde gerar código para programadores até ajudar autores a escrever seu próximo best-seller. No entanto, esses modelos também têm falhas graves: eles regurgitam vieses em seus dados de treinamento e muitas vezes inventam respostas para as perguntas dos usuários (um grande problema se forem úteis como assistentes digitais).

Este último problema é algo que o Meta especificamente quer testar com o BlenderBot. Uma grande característica do chatbot é que ele é capaz de pesquisar na internet para falar sobre temas específicos. Ainda mais importante, os usuários podem clicar em suas respostas para ver de onde obtiveram suas informações. O BlenderBot 3, em outras palavras, pode citar suas fontes.

Ao liberar o chatbot para o público em geral, a Meta quer coletar feedback sobre os vários problemas enfrentados pelos grandes modelos de linguagem. Os usuários que conversarem com o BlenderBot poderão sinalizar quaisquer respostas suspeitas do sistema, e Meta diz que trabalhou duro para “minimizar o uso de linguagem vulgar, insultos e comentários culturalmente insensíveis pelos bots”. Os usuários terão que optar por ter seus dados coletados e, em caso afirmativo, suas conversas e comentários serão armazenados e posteriormente publicados pela Meta para serem usados ​​pela comunidade geral de pesquisa de IA.

“Estamos comprometidos em divulgar publicamente todos os dados que coletamos na demonstração na esperança de que possamos melhorar a IA de conversação”, disse Kurt Shuster, engenheiro de pesquisa da Meta que ajudou a criar o BlenderBot 3. A Beira.

Um exemplo de conversa com o BlenderBot 3 na web. Os usuários podem dar feedback e reações a respostas específicas.
Imagem: Meta

Liberar protótipos de chatbots de IA para o público tem sido, historicamente, uma jogada arriscada para empresas de tecnologia. Em 2016, a Microsoft lançou um chatbot chamado Tay no Twitter que aprendeu com suas interações com o público. De forma um tanto previsível, os usuários do Twitter logo treinaram Tay a regurgitar uma série de declarações racistas, antissemitas e misóginas. Em resposta, a Microsoft colocou o bot offline menos de 24 horas depois.

Meta diz que o mundo da IA ​​mudou muito desde o mau funcionamento de Tay e que o BlenderBot tem todos os tipos de trilhos de segurança que devem impedir Meta de repetir os erros da Microsoft.

Crucialmente, diz Mary Williamson, gerente de engenharia de pesquisa do Facebook AI Research (FAIR), enquanto o Tay foi projetado para aprender em tempo real a partir das interações do usuário, o BlenderBot é um modelo estático. Isso significa que ele é capaz de lembrar o que os usuários dizem em uma conversa (e até retém essas informações por meio de cookies do navegador se um usuário sair do programa e retornar mais tarde), mas esses dados serão usados ​​apenas para melhorar o sistema posteriormente.

“É apenas minha opinião pessoal, mas isso [Tay] episódio é relativamente infeliz, porque criou esse inverno de chatbots, onde todas as instituições tinham medo de lançar chatbots públicos para pesquisa”, diz Williamson A Beira.

Williamson diz que a maioria dos chatbots em uso hoje é restrita e orientada a tarefas. Pense nos bots de atendimento ao cliente, por exemplo, que geralmente apenas apresentam aos usuários uma árvore de diálogo pré-programada, limitando sua consulta antes de entregá-la a um agente humano que pode realmente fazer o trabalho. O verdadeiro prêmio é construir um sistema que possa conduzir uma conversa tão livre e natural quanto a de um ser humano, e Meta diz que a única maneira de conseguir isso é permitir que os bots tenham conversas naturais e de alcance livre.

“Essa falta de tolerância para bots dizendo coisas inúteis, no sentido amplo, é lamentável”, diz Williamson. “E o que estamos tentando fazer é liberar isso com muita responsabilidade e impulsionar a pesquisa.”

Além de colocar o BlenderBot 3 na web, a Meta também está publicando o código subjacente, o conjunto de dados de treinamento e variantes de modelo menores. Os pesquisadores podem solicitar acesso ao maior modelo, que possui 175 bilhões de parâmetros, por meio de um formulário aqui.

Leave a Comment