O Google, mesmo abrindo o código-fonte de algumas de suas principais tecnologias de chatbot, está mantendo seu sistema mais poderoso em segredo.
Quando a Meta compartilhou o código de computador bruto necessário para construir um chatbot no ano passado, empresas rivais disseram que a Meta estava lançando no mundo tecnologia pouco compreendida e talvez até perigosa.
Agora, numa indicação de que os críticos do compartilhamento de tecnologia de IA estão a perder terreno para os seus pares da indústria, a Google está tomando uma medida semelhante. A Google divulgou nesta quarta-feira, 21/2, o código de computador que alimenta seu chatbot online, depois de manter esse tipo de tecnologia oculta por muitos meses.
Assim como o Meta, Google disse que os benefícios de compartilhar livremente a tecnologia – chamada de grande modelo de linguagem – superam os riscos potenciais.
IA
A empresa disse em um blog que estava lançando dois modelos de linguagem de IA que poderiam ajudar empresas externas e desenvolvedores de software independentes a construir chatbots online semelhantes ao chatbot da própria Google. Chamadas Gemma 2B e Gemma 7B, não são as tecnologias de IA mais poderosas do Google, mas a empresa argumentou que rivalizam com muitos dos sistemas líderes do setor.
“Esperamos envolver novamente a comunidade de desenvolvedores terceirizados e garantir que” os modelos baseados na Google se tornem um padrão da indústria para a forma como a IA moderna é construída, disse Tris Warkentin, diretor de gerenciamento de produtos do Google DeepMind, em uma entrevista. .
A Google disse que não tem planos atuais de lançar seu principal modelo de IA, o Gemini, gratuitamente. Por ser mais eficaz, o Gemini também pode causar mais danos.
Este mês, a Google começou a cobrar pelo acesso à versão mais poderosa do Gemini. Ao oferecer o modelo como um serviço online, a empresa pode controlar a tecnologia de forma mais rígida.
Preocupadas com a possibilidade de as tecnologias de IA serem utilizadas para espalhar desinformação, discurso de ódio e outros conteúdos tóxicos, algumas empresas, como a OpenAI, criadora do chatbot online ChatGPT, tornaram-se cada vez mais secretas sobre os métodos e software que sustentam os seus produtos.
Mas outros, como a Meta e a start-up francesa Mistral , argumentaram que a partilha livre de código – chamada open source – é a abordagem mais segura porque permite que terceiros identifiquem problemas com a tecnologia e sugiram soluções.
Com informações no NYT, íntegra aqui.