Que deve haver regulamentos dedicados para regular as tecnologias de IA é uma noção comum. A maioria dos governos, desenvolvedores de produtos de IA e até mesmo usuários comuns concordam com isso. Infelizmente, a melhor maneira de organizar esse campo em rápido crescimento é um enigma que ainda precisa ser resolvido.
Se não forem controladas, as tecnologias de IA podem impactar negativamente nosso modo de vida e ameaçar nossa própria existência. Mas como os governos podem navegar no labirinto de desafios que acompanham esse campo em rápida evolução e enfrentar os obstáculos que estão por vir? Verificar A humanidade está em risco de extinção devido à inteligência artificial - como ela pode ser detida?
Links Rápidos
1. Regulamentos de privacidade e proteção de dados
A privacidade e a segurança dos dados são uma das principais preocupações das tecnologias de IA. Os sistemas de inteligência artificial são modelos famintos por acesso a vários dados. Eles precisam de dados para fornecer respostas adequadas e concluir várias tarefas, para serem eficazes e melhorarem suas capacidades. Embora isso aparentemente não seja um problema, a maneira como esses dados são obtidos, a natureza deles e como são processados e armazenados é um dos maiores pontos de debate em torno dos regulamentos de IA.
Diante disso, o caminho lógico a seguir é implementar regulamentos rígidos de privacidade de dados que regem a maneira como os dados são coletados, armazenados e processados, bem como os direitos dos indivíduos - cujos dados são usados - de controlá-los. As perguntas que esses regulamentos provavelmente abordarão são:
- Que tipo de dados podem ser coletados?
- Alguns dados privados devem ser considerados entre os que não devem ser acessados pela IA?
- Como as empresas de IA devem lidar com dados pessoais confidenciais, como registros de saúde ou informações biométricas?
- As empresas de IA devem implementar mecanismos que permitam aos indivíduos solicitar facilmente a exclusão ou correção de seus dados pessoais?
- Quais são as consequências para as empresas de IA que não cumprem os regulamentos de privacidade de dados? Como a conformidade deve ser monitorada e como a aplicação deve ser assegurada?
- Talvez o mais importante, qual padrão as empresas de IA devem aplicar para garantir a integridade da natureza sensível das informações que possuem?
Essas e algumas outras questões formaram o cerne do motivo pelo qual o ChatGPT foi temporariamente banido da Itália. A menos que essas preocupações sejam abordadas, o campo da IA pode ser a ruína da privacidade de dados, e a proibição da Itália pode se transformar em um modelo de proibição adotado por outros países ao redor do mundo. Verificar Alguns mitos comuns sobre inteligência artificial que não são verdadeiros.
2. Desenvolva uma estrutura ética para IA
As empresas de IA geralmente se orgulham de seguir diretrizes éticas no desenvolvimento de sistemas de IA. Pelo menos no papel, todos eles são proponentes do desenvolvimento responsável e ético da IA. Na mídia, os executivos do Google enfatizaram como a empresa leva a segurança e a ética da IA muito a sério. Da mesma forma, "IA segura e ética" é o lema do CEO da OpenAI, Sam Altman. O que é muito louvável.
Mas quem faz as regras? Quem decide quais diretrizes éticas de IA são boas o suficiente? Quem decide como é o desenvolvimento de IA segura? No momento, parece que toda empresa de IA tem seu próprio papel no desenvolvimento de uma IA responsável e ética. OpenAI, Anthropic, Google, Meta, Microsoft, todos. Simplesmente confiar em empresas de IA para fazer a coisa certa é perigoso.
As consequências de um espaço de IA não supervisionado podem ser catastróficas. Permitir que empresas individuais decidam quais diretrizes éticas adotar e quais evitar é como caminhar como um sonâmbulo no caminho para o apocalipse da IA. a solução? Uma estrutura ética clara para IA garante:
- Os sistemas de IA não prejudicam ou discriminam injustamente determinados indivíduos ou grupos com base em raça, gênero ou status socioeconômico.
- Os sistemas de IA são seguros e confiáveis e minimizam o risco de consequências não intencionais ou comportamento prejudicial.
- Os sistemas de IA são projetados tendo em mente o impacto social mais amplo das tecnologias de IA.
- Que os humanos mantenham o controle final sobre os sistemas de IA e tomem suas decisões de forma transparente.
- Os sistemas de IA são intencionalmente limitados de maneiras que são benéficas para os humanos.
Verificar As razões pelas quais os problemas de segurança para IA generativa estão piorando.
3. Uma agência reguladora dedicada
Devido ao seu impacto potencial na civilização humana, a discussão sobre a segurança da IA geralmente é paralela à ameaça de uma crise de saúde ou desastre nuclear. Evitar possíveis acidentes nucleares exigia uma agência dedicada, como a US NRC (Nuclear Regulatory Commission). Embora, para evitar os riscos de graves crises de saúde, fosse necessário o estabelecimento da Food and Drug Administration (FDA)
Da mesma forma, para garantir que a IA não dê errado, uma agência dedicada semelhante à Food and Drug Administration e ao Comitê Norueguês para Refugiados é essencial, pois a IA continua a fazer grandes progressos em todas as áreas de nossas vidas. Infelizmente, a questão da regulamentação da IA dentro do país é difícil. O funcionamento de uma agência reguladora dedicada provavelmente será muito difícil sem cooperação transfronteiriça. Assim como a Comissão Reguladora Nuclear dos EUA (NRC) precisa trabalhar ao lado da Agência Internacional de Energia Atômica (AIEA) para estar no seu melhor, qualquer agência reguladora dedicada à IA no país também precisa de uma contraparte internacional.
Esta agência será responsável pelo seguinte:
- Desenvolvimento de sistemas de inteligência artificial.
- Garanta a conformidade e a aplicação.
- Supervisionar o processo de revisão ética para projetos de IA.
- Colaboração entre países em segurança e ética em IA.
4. Abordando questões de direitos autorais e propriedade intelectual
As leis de direitos autorais e as estruturas legais existentes estão entrando em colapso diante da IA. A maneira como as ferramentas de IA, especialmente as ferramentas de IA generativas, são projetadas faz com que pareça uma máquina de violação de direitos autorais sancionada publicamente sobre a qual você não pode fazer nada.
como? Bem, muitos sistemas de IA atuais são treinados com materiais protegidos por direitos autorais. Você sabe, artigos protegidos por direitos autorais, músicas protegidas por direitos autorais, imagens protegidas por direitos autorais, etc. É assim que ferramentas como ChatGPT, Bing AI e Google Gemini podem fazer as coisas incríveis que fazem.
Embora esses sistemas claramente aproveitem a propriedade intelectual das pessoas, a maneira como esses sistemas de IA fazem isso não é diferente de um ser humano lendo um livro protegido por direitos autorais, ouvindo músicas protegidas por direitos autorais ou olhando imagens protegidas por direitos autorais.
Você pode ler um livro protegido por direitos autorais, aprender novos fatos com ele e usar esses fatos como base para seu próprio livro. Você também pode ouvir uma música protegida por direitos autorais para se inspirar e criar sua própria música. Em cada caso, usei material protegido por direitos autorais, mas isso não significa necessariamente que o produto derivado infrinja os direitos autorais do original.
Embora essa seja uma explicação lógica para o caos que as tecnologias de IA causam para as leis de direitos autorais, ainda prejudica os proprietários de direitos autorais e de propriedade intelectual. Diante disso, os regulamentos são necessários para:
- Defina claramente a responsabilidade e as responsabilidades de todas as partes envolvidas no ciclo de vida de um sistema de IA. Isso inclui esclarecer as funções de cada parte, desde desenvolvedores de IA até usuários finais, para garantir que as partes responsáveis sejam responsabilizadas por qualquer violação de direitos autorais ou outras violações de propriedade intelectual cometidas por sistemas de IA.
- Fortalecer as estruturas de direitos autorais existentes e possivelmente introduzir leis de direitos autorais para IA.
- Para garantir a inovação em IA e, ao mesmo tempo, proteger os direitos dos criadores originais, os regulamentos de IA devem redefinir os conceitos de uso justo e trabalho transformador no contexto do conteúdo gerado por IA. São necessárias definições e diretrizes mais claras para garantir que o espaço de IA possa continuar a melhorar, respeitando os limites dos direitos autorais. É necessário encontrar um equilíbrio entre inovação e preservação dos direitos dos criadores de conteúdo.
- Caminhos claros para a cooperação com os detentores de direitos. Se os sistemas de IA vão usar a propriedade intelectual das pessoas de qualquer maneira, é preciso haver caminhos ou estruturas claras para desenvolvedores de IA e detentores de direitos colaborarem, especialmente em termos de compensação monetária, se o trabalho derivado dessa propriedade intelectual for comercializado.
A regulamentação da IA é uma correção muito necessária
Embora a IA tenha surgido como uma solução promissora para muitos de nossos problemas sociais, a própria IA está rapidamente se tornando um problema que precisa de uma solução urgente. É hora de dar um passo atrás, refletir e fazer as reformas necessárias para garantir o impacto positivo da IA na sociedade. Precisamos desesperadamente de uma recalibração urgente de nossa abordagem para construir e usar sistemas de IA. Você pode ver agora Principais fatores a serem considerados ao testar a precisão dos chatbots de IA.