banner

Notícias

Sep 06, 2023

A IA provavelmente não levará a humanidade à extinção, mas pode ser prejudicial

A IA já está prejudicando algumas pessoas muito vulneráveis.

Mais de 350 especialistas em tecnologia, pesquisadores de IA e líderes do setor assinaram a Declaração sobre o risco de IA publicada pelo Center for AI Safety na semana passada. É um aviso muito curto e sucinto de uma única frase para todos nós:

Mitigar o risco de extinção da IA ​​deve ser uma prioridade global, juntamente com outros riscos em escala social, como pandemias e guerra nuclear.

Portanto, os especialistas em IA, incluindo engenheiros práticos do Google e da Microsoft que estão ativamente lançando a IA no mundo, acham que a IA tem o potencial de ser um evento de extinção global na mesma linha da guerra nuclear. Caramba.

Admito que pensei a mesma coisa que muitas pessoas pensaram quando leram esta declaração pela primeira vez - isso é um monte de besteira. Sim, a IA tem muitos problemas e acho que é um pouco cedo para se apoiar nela tanto quanto algumas empresas de tecnologia e notícias estão fazendo, mas esse tipo de hipérbole é simplesmente bobo.

Então, pesquisei no Bard Beta Lab AI no Google e descobri várias maneiras pelas quais a IA já é prejudicial. Alguns dos mais vulneráveis ​​da sociedade estão ainda mais em risco por causa da IA ​​generativa e quão estúpidos esses computadores inteligentes realmente são.

A Associação Nacional de Distúrbios Alimentares demitiu seus operadores de linha de apoio em 25 de maio de 2023 e os substituiu por Tessa, o ChatBot. Os trabalhadores estavam se sindicalizando, mas a NEDA afirma que "esta foi uma mudança há muito esperada e que a IA pode atender melhor aqueles com distúrbios alimentares" e não teve nada a ver com seis funcionários pagos e vários voluntários tentando se sindicalizar.

Em 30 de maio de 2023, NEDA desativou Tessa, o ChatBot, porque estava oferecendo conselhos prejudiciais a pessoas com distúrbios alimentares graves. Oficialmente, a NEDA está "preocupada e trabalhando com a equipe de tecnologia e a equipe de pesquisa para investigar isso mais a fundo; essa linguagem é contra nossas políticas e crenças centrais como uma organização de transtorno alimentar".

Nos Estados Unidos, existem 30 milhões de pessoas com distúrbios alimentares graves e 10.200 morrerão a cada ano como resultado direto deles. Um a cada hora.

Depois, temos Koko, uma organização sem fins lucrativos de saúde mental que usou IA como um experimento em adolescentes suicidas. Sim, você leu certo.

Os usuários em risco foram canalizados para o site de Koko a partir da mídia social, onde cada um foi colocado em um dos dois grupos. Um grupo recebeu um número de telefone para uma linha direta de crise real, onde eles poderiam encontrar a ajuda e o suporte de que precisavam.

O outro grupo fez o experimento de Koko, onde eles responderam a um questionário e foram solicitados a identificar as coisas que disparavam seus pensamentos e o que estavam fazendo para lidar com eles.

Depois de terminar, a IA perguntou se eles verificariam as notificações do telefone no dia seguinte. Se a resposta fosse sim, eles eram empurrados para uma tela dizendo "Obrigado por isso! Aqui está um gato!" Claro, havia uma foto de um gato e, aparentemente, Koko e o pesquisador de IA que ajudaram a criar esse pensamento que tornará as coisas melhores de alguma forma.

Não estou qualificado para falar sobre a ética de situações como essa em que a IA é usada para fornecer diagnóstico ou ajudar pessoas que lutam contra a saúde mental. Sou um especialista em tecnologia que se concentra principalmente em smartphones. A maioria dos especialistas humanos concorda que a prática está repleta de problemas, no entanto. Eu sei que o tipo errado de "ajuda" pode e vai tornar uma situação ruim ainda pior.

Se você está lutando com sua saúde mental ou sente que precisa de ajuda, ligue ou envie uma mensagem de texto para 988 para falar com um humano que pode ajudá-lo.

Esses tipos de histórias contam duas coisas - a IA é muito problemática quando usada no lugar de pessoas qualificadas no caso de uma crise, e pessoas reais que deveriam saber mais podem ser burras também.

A IA em seu estado atual não está pronta para ser usada dessa maneira. Nem mesmo perto. A professora da Universidade de Washington, Emily M. Bender, faz uma grande observação em uma declaração à Vice:

"Modelos de linguagem grandes são programas para gerar texto com som plausível, dados seus dados de treinamento e um prompt de entrada. Eles não têm empatia, nem qualquer compreensão da linguagem que estão produzindo, nem qualquer compreensão da situação em que estão. produzir sons plausíveis e, portanto, é provável que as pessoas atribuam significado a isso. Jogar algo assim em situações delicadas é assumir riscos desconhecidos."

COMPARTILHAR