A humanidade está em risco de extinção devido à inteligência artificial - como ela pode ser detida?

Mais uma vez, um grupo de proeminentes pesquisadores e especialistas na área de inteligência artificial e empresas de tecnologia alertaram que o atual rápido desenvolvimento da inteligência artificial pode significar um desastre para a humanidade.

Os perigos incluem conflitos nucleares, doenças, desinformação e inteligência artificial descontrolada que carece de supervisão, todos os quais representam uma ameaça direta à sobrevivência humana. Verificar Qual é o problema de aumentar os clipes de papel e qual é a relação deles com a inteligência artificial?

A imagem da humanidade está em risco de extinção devido à inteligência artificial – como podemos impedir isso? | 1MotzviUKcc_X91VfH4ZiZQ-DzTechs

Mas lembre-se de que muitos desses avisos vêm das mesmas pessoas que estão conduzindo o desenvolvimento de IA e conduzindo ferramentas e software de IA em suas empresas.

Por que empresas de tecnologia e especialistas alertam sobre os perigos da inteligência artificial?

Em 30 de maio de 2023, mais de 350 pesquisadores, desenvolvedores e engenheiros de IA emitiram uma declaração consolidada alertando sobre a ameaça que a IA representa para a humanidade.

Mitigar a ameaça de extinção que a humanidade enfrenta devido à IA deve ser uma prioridade global, juntamente com outros riscos sociais, como pandemias e guerra nuclear.

das pessoas que assinaram a declaração seguro.ai Sam Altman, CEO da OpenAI, Demis Hassabis, CEO da Google DeepMind, e Dario Amodi, CEO da Anthropic, juntamente com os vencedores do Turing Award, Jeffrey Hinton e Joshua Bengio (embora Yan Likun, que também ganhou o mesmo prêmio, não tenha assinado). A lista é basicamente quem é quem no desenvolvimento de IA - as pessoas que lideram o caminho em startups de IA - mas aqui eles se reúnem, alertando que a IA pode significar um desastre para a humanidade.

É uma breve declaração descrevendo as ameaças e menciona especificamente duas áreas principais que podem ameaçar o mundo como o conhecemos: guerra nuclear e questões de saúde global. Embora a ameaça de conflito nuclear seja uma preocupação, a ameaça de uma pandemia é uma ameaça mais tangível para a maioria das pessoas.

No entanto, não é apenas uma pandemia global que pode causar problemas de saúde relacionados à IA. relatado Jornal The Guardian Existem muitos outros problemas de saúde relacionados à IA que podem afetar os seres humanos se não forem investigados antes do uso generalizado. Um exemplo diz respeito ao uso de oxímetros alimentados por IA que "superestimam os níveis de oxigênio no sangue em pacientes de pele escura, manipulando mal sua hipóxia".

Além disso, não é a primeira vez que um grupo de líderes de tecnologia pede uma pausa ou uma reavaliação séria do desenvolvimento da IA. Em março de 2023, Elon Musk e outros pesquisadores de IA assinaram um apelo à ação semelhante pedindo que o desenvolvimento da IA ​​fosse interrompido até que mais regulamentos fossem implementados para ajudar a orientar o processo. Verificar O ChatGPT aprende com as conversas do usuário?

Quais são os riscos da inteligência artificial?

A maioria dos riscos associados à IA, pelo menos neste contexto, está relacionada ao desenvolvimento de uma tecnologia de IA descontrolada que excede as capacidades dos humanos, que eventualmente alimenta seu criador e erradica a vida como a conhecemos. É uma história que já foi abordada inúmeras vezes em livros de ficção científica, mas a realidade agora está mais próxima do que pensamos.

As capacidades de grandes modelos de linguagem (que suportam ferramentas como ChatGPT) estão crescendo exponencialmente. No entanto, ferramentas como o ChatGPT têm muitos problemas, como viés inerente, preocupações com a privacidade e alucinações de IA, sem mencionar sua capacidade de jailbreak para operar fora dos limites dos termos e condições programados.

Com modelos de linguagem mais amplos e mais pontos de dados para contato, além de acesso à Internet e uma maior compreensão dos eventos atuais, os pesquisadores de IA temem que um dia, nas palavras do CEO da OpenAI, "as coisas vão dar errado".

Como os governos regulam o desenvolvimento da inteligência artificial para impedir os riscos?

Regulamentar a inteligência artificial é fundamental para prevenir riscos. No início de maio de 2023, Sam Altman pediu mais regulamentação da IA, afirmando que "a intervenção regulatória dos governos será crítica para mitigar os riscos de modelos cada vez mais poderosos".

Posteriormente, a UE anunciou a Lei de Inteligência Artificial, um regulamento criado para fornecer uma estrutura muito mais forte para o desenvolvimento da IA ​​em toda a UE (com muitos regulamentos se espalhando para outras jurisdições). Altmann inicialmente ameaçou retirar a OpenAI da União Europeia, mas depois retirou sua ameaça e concordou que a empresa aderisse ao regulamento de IA que ele havia solicitado anteriormente.

Independentemente disso, é claro que regular o desenvolvimento e os usos da inteligência artificial é importante. Verificar O ChatGPT se tornará uma ameaça à segurança cibernética? Aqui está o que observar.

A inteligência artificial destruirá a humanidade?

Como grande parte da discussão sobre esse tópico é baseada em suposições sobre a força das versões futuras da IA, há questões sobre a longevidade e a força que qualquer organização de IA pode ter. Qual a melhor forma de organizar uma indústria que já está se movendo muito rápido e fazendo avanços de desenvolvimento todos os dias?

Além disso, ainda há algum ceticismo sobre as capacidades da IA ​​em geral e onde ela irá parar. Enquanto todos os que temem o pior apontam que a IA se tornou humana, outros apontam para o fato de que as versões atuais da IA ​​não podem nem responder a questões computacionais básicas e que os carros autônomos ainda estão muito distantes.

É difícil não concordar com todos que olham para o futuro. Muitas das pessoas que estão gritando sobre os problemas que a IA pode causar estão no banco do motorista, olhando para onde podemos ir. Se são eles que pedem a regulamentação da inteligência artificial para nos proteger de um futuro apocalíptico, talvez seja hora de agir. Você pode ver agora Algumas razões para não confiar cegamente na IA.

Ir para o botão superior