Graves consequências podem acontecer com o avanço da IA, segundo cientistas
Os principais cientistas de Inteligência Artificial (IA) do mundo estão pedindo aos governos que trabalhem juntos para regular essa tecnologia antes que seja tarde demais. Três ganhadores do Prêmio Turing, considerado o “Prêmio Nobel da Computação”, juntamente com uma dúzia de outros cientistas renomados, assinaram uma carta aberta pedindo salvaguardas mais robustas para o avanço da IA.
Esses especialistas afirmaram que o rápido progresso da IA pode ter consequências severas caso ocorra algum erro ou uso indevido. O ganhador do Prêmio Turing, Yoshua Bengio, foi um dos doze cientistas que pediram melhores proteções para a IA.
O pedido dos cientistas por segurança na IA
Na carta, os cientistas destacam que a perda de controle humano ou o uso malicioso da IA pode trazer resultados catastróficos para a humanidade. Com o desenvolvimento acelerado da tecnologia, esses “resultados catastróficos” podem ocorrer a qualquer momento.
Os cientistas sugerem diversas etapas essenciais para enfrentar imediatamente o risco do uso impróprio da IA:
- Órgãos governamentais de segurança de IA: Os governos devem colaborar e criar autoridades específicas para IA que respondam a incidentes e riscos, com uma cooperação internacional a longo prazo.
- Compromissos de segurança de IA do desenvolvedor: Desenvolvedores devem garantir a segurança de seus modelos, prometendo não criar IA que possa agir autonomamente de maneira perigosa ou possibilitar a construção de armas de destruição em massa.
- Pesquisa independente e verificações tecnológicas sobre IA: Proposta de criação de fundos globais financiados por governos e empresas para patrocinar pesquisas independentes que visem desenvolver melhores verificações tecnológicas.
Os cientistas elogiaram a cooperação já existente, como a reunião entre líderes dos EUA e da China, mas enfatizaram que é necessária uma colaboração ainda maior. O desenvolvimento da IA deve ser acompanhado de normas éticas para engenheiros, similares às de médicos e advogados.
Ameaças potenciais da IA
Andrew Yao, Yoshua Bengio e Geoffrey Hinton, todos ganhadores do Prêmio Turing, foram algumas das vozes mais proeminentes nesse apelo global. Eles apontaram para os riscos elevados, como a replicação autônoma de IA, ataques cibernéticos e a criação de armas de destruição em massa como preocupações centrais que necessitam de controle imediato.
Com o objetivo de prevenir riscos catastróficos, os cientistas propõem uma série de medidas práticas, incluindo a implementação de preparações de segurança, divulgação transparente e registros de IA. Essas medidas, segundo a carta, ajudariam a preparar o terreno para um desenvolvimento mais seguro e ético da IA.