O ChatGPT possibilitou ao público comum o uso de inteligência artificial (IA), mas suas “entranhas” ainda são um segredo.
Nos últimos meses, houve uma tentativa de tornar a IA mais aberta. Em maio, segundo a WIRED, alguém vazou o Llama, modelo da Meta, dando acesso aos estranhos ao código da empresa, bem como ao seu comportamento.
Leia mais:
Em julho, a Meta foi além e criou o Llama 2, mais poderoso e disponível para qualquer um baixar, modificar e reutilizar.
Os modelos da Meta começaram a ser populares como base para companhias, pesquisadores e interessados em um passatempo para construir ferramentas e aplicações com as possibilidades do ChatGPT.
Temos ampla gama de apoiadores em todo o mundo que acreditam em nossa abordagem aberta para a IA de hoje pesquisadores comprometidos em fazer pesquisas com o modelo e pessoas de tecnologia, academia e política que veem os benefícios do Llama e de abordagem aberta como nós.
Meta, quando do lançamento do Llama 2
Nesta semana, a Meta lançou outro modelo, Llama 2 Code, ajustado para codificação.
Pode parecer que a abordagem de código aberto, que democratizou o acesso ao software, garantiu a transparência e melhorou a segurança durante décadas, está agora preparada para ter um impacto semelhante na IA.
Esse nível de controle significa que o Llama 2 pode fornecer benefícios técnicos e estratégicos significativos para a Meta – por exemplo, permitindo que a empresa se beneficie de ajustes úteis feitos por desenvolvedores externos quando ela usa o modelo em seus próprios aplicativos.
Os modelos lançados sob licenças normais de código aberto, como o GPT Neo da organização sem fins lucrativos EleutherAI, são mais totalmente abertos, dizem os pesquisadores. Mas é difícil que tais projectos fiquem em pé de igualdade.
Do jeito que as coisas estão caminhando, uma das tecnologias mais importantes em décadas pode acabar enriquecendo e capacitando apenas um punhado de empresas, incluindo OpenAI, Microsoft, Meta e Google.
Se a IA é realmente uma tecnologia que muda o mundo, então os maiores benefícios poderiam ser sentidos se ela fosse disponibilizada e acessível de forma mais ampla.
"O que a nossa análise aponta é que a abertura não só não serve para 'democratizar' a IA", diz-me Meredith Whittaker, presidente da Signal e uma das investigadoras por detrás do artigo. "Na verdade, mostramos que as empresas e instituições podem e têm aproveitado tecnologias 'abertas' para consolidar e expandir o poder centralizado."
Whittaker acrescenta que o mito da abertura deve ser um fator nas tão necessárias regulamentações de IA. "Precisamos urgentemente de alternativas significativas à tecnologia definidas e dominadas por grandes empresas monopolistas – especialmente porque os sistemas de IA estão integrados em muitos domínios altamente sensíveis com impacto público específico: nos cuidados de saúde, nas finanças, na educação e no local de trabalho", afirma ela.
"Criar as condições para tornar possíveis tais alternativas é projeto que pode coexistir e até ser apoiado por movimentos regulatórios como as reformas antitruste."
Além de verificar o poder das grandes empresas, tornar a IA mais aberta pode ser crucial para desbloquear o melhor potencial da tecnologia – e evitar as suas piores tendências.
Se quisermos compreender até que ponto são capazes os modelos de IA mais avançados e mitigar os riscos que podem advir da implantação e de novos progressos, talvez seja melhor torná-los abertos aos cientistas de todo o mundo.
Assim como a segurança a partir da obscuridade nunca garante realmente que o código será executado com segurança, proteger o funcionamento de poderosos modelos de IA pode não ser a maneira mais inteligente de proceder.
Já assistiu aos novos vídeos no YouTube do Olhar Digital? Inscreva-se no canal!
Fonte: Olhardigital