As inovações mais recentes em torno da tecnologia baseada em IA estão ultrapassando os limites do que pensávamos ser provável com IA. No entanto, com chatbots uma vez que ChatGPT e Bing Chat ficando quase tão bons quanto os humanos em várias coisas, é hora de pisar no freio por um tempo?
Elon Musk e vários pesquisadores de IA estão entre as 1.188 pessoas (no momento em que escrevo) que pensam assim. Uma epístola publicada pelo instituto sem fins lucrativos Future of Life pede uma pausa de seis meses no treinamento de tecnologias de IA melhores do que GPT 4, mas uma pausa é realmente necessária?
Do que se trata a Epístola Oportunidade do Horizonte da Vida?
A epístola publicada pelo instituto Future of Life aponta que os laboratórios de IA estão “presos em uma corrida descontrolada” para desenvolver e implantar modelos de IA cada vez mais poderosos que ninguém, incluindo seus criadores, pode “entender, prever , ou controle confiável”.
Ele também aponta que os sistemas de IA contemporâneos estão se tornando competitivos para humanos em tarefas gerais e pergunta se devemos desenvolver “mentes não humanas que possam eventualmente nos superar, ser mais inteligentes, obsoletas e nos substituir”.
A epístola eventualmente pede a todos os laboratórios de IA que parem imediatamente o treinamento de sistemas de IA mais poderosos que o GPT-4 por pelo menos seis meses. A pausa também deve ser pública e verificável para todos os atores principais. Ele também afirma que, se essa pausa não puder ser aplicada rapidamente, os governos devem intervir para proibir temporariamente o treinamento do padrão de IA.
Logo que a pausa estiver ativa, os laboratórios de IA e especialistas independentes são solicitados a usá-la para desenvolver e implementar em conjunto um “conjunto compartilhado de protocolos de segurança” para prometer que os sistemas que aderem a essas regras sejam “seguros além de qualquer incerteza razoável”.
Esta epístola foi assinada por algumas personalidades nomeadas, incluindo Elon Musk, Steve Wozniak e pesquisadores e autores de IA. De vestimenta, a lista de signatários está pausada devido à subida demanda.
Quais são as preocupações de Musk com tecnologia avançada de IA e OpenAI?
Embora a assinatura da epístola do Future of Life possa indicar que Musk está preocupado com os riscos de segurança que esses sistemas avançados de IA representam, o verdadeiro motivo pode ser outra coisa.
Musk cofundou a OpenAI com o atual CEO Sam Altman em 2015 uma vez que uma organização sem fins lucrativos. No entanto, ele bateu de frente com Altman no final de 2018, depois que percebeu que não estava feliz com o progresso da empresa. Musk supostamente queria assumir o controle para aligeirar o desenvolvimento, mas Altman e o juízo da OpenAI rejeitaram a teoria.
Musk saiu da OpenAI logo depois e levou seu moeda com ele, quebrando sua promessa de contribuir com 1 bilhão em financiamento e dando unicamente 100 milhões antes de transpor. Isso forçou a OpenAI a se tornar uma empresa privada logo depois, em março de 2019, para receber fundos para continuar suas pesquisas.
Outra razão pela qual Musk saiu foi que o desenvolvimento de IA na Tesla causaria um conflito de interesses no porvir. É óbvio que a Tesla precisa de sistemas avançados de IA para potencializar seus recursos de direção totalmente autônoma. Desde que Musk deixou a OpenAI, a empresa fugiu com seus modelos de IA, lançando o ChatGPT com tecnologia GPT3.5 em 2022 e depois seguindo com o GPT-4 em março de 2023.
O vestimenta de a equipe de IA de Musk não estar nem perto da OpenAI precisa ser levado em consideração toda vez que ele diz que os modelos modernos de IA podem simbolizar riscos. Ele também não teve problemas para lançar o beta completo de direção autônoma da Tesla em vias públicas, basicamente transformando motoristas regulares da Tesla em testadores beta.
Isso também não acaba cá. Musk também criticou bastante o OpenAI no Twitter, com Altman chegando a manifestar que os está atacando enquanto aparecia no podcast “On with Kara Swisher” recentemente.
No momento, parece que Musk está unicamente usando a epístola do Horizonte da Vida para interromper o desenvolvimento da OpenAI e de qualquer outra empresa que esteja alcançando o GPT-4 para dar a suas empresas uma chance de alcançá-lo, em vez de realmente se preocupar com os perigos potenciais que esses riscos representam. Modelos de IA posam. Observe que a epístola também pede para interromper o “treinamento” de sistemas de IA por seis meses, o que pode ser facilmente evitado para continuar desenvolvendo-os nesse meio tempo.
Uma pausa é realmente necessária?
A urgência de uma pausa depende do estado dos modelos de IA daqui para frente. A epístola definitivamente tem um tom um pouco dramático, e não estamos arriscando perder o controle de nossa cultura para a IA, uma vez que afirma tão claramente. Dito isso, as tecnologias de IA representam algumas ameaças.
Oferecido que o OpenAI e outros laboratórios de IA podem apresentar melhores verificações de segurança, uma pausa faria mais mal do que muito. No entanto, a sugestão da epístola de um conjunto de protocolos de segurança compartilhados que são “rigorosamente auditados e supervisionados por especialistas externos independentes” soa uma vez que uma boa teoria.
Com gigantes da tecnologia uma vez que Google e Microsoft despejando bilhões no desenvolvimento e integração de IA em seus produtos, é improvável que a epístola afete o ritmo atual de desenvolvimento de IA.
A IA veio para permanecer
Com os gigantes da tecnologia impulsionando ainda mais a integração da IA em seus produtos e investindo bilhões de dólares em pesquisa e desenvolvimento, a IA veio para permanecer, independentemente do que a oposição diga.
Mas não é uma má teoria implementar medidas de segurança para evitar que essas tecnologias saiam dos trilhos e se transformem em ferramentas para o mal.