Cientistas de IA pedem criação de órgão pra proteger contra "riscos catastróficos" da tecnologia
Grupo propõe que países criem autoridades de segurança para controle dos sistemas de IA dentro de suas fronteiras. Supervisão ficaria a cargo de entidade global
Cientistas que ajudaram a desenvolver sistemas de inteligência artificial estão alertando que os países devem criar um sistema global de supervisão para controlar os riscos potencialmente graves representados por essa tecnologia em rápido desenvolvimento.
O lançamento do ChatGPT e de uma série de serviços semelhantes, que podem criar textos e imagens sob comando, mostrou como a IA está avançando de maneira poderosa. A corrida para comercializar a tecnologia rapidamente a trouxe das margens da ciência para smartphones, carros e salas de aula, forçando governos, de Washington a Pequim, a descobrir como regulamentá-la e aproveitá-la.
Em um comunicado divulgado na segunda-feira, um grupo de influentes cientistas expressou preocupações de que a tecnologia que ajudaram a construir poderia causar sérios danos.
Eles alertaram que a IA poderia, em questão de anos, ultrapassar as capacidades de seus criadores e que "a perda de controle humano ou o uso malicioso desses sistemas de IA poderia levar a resultados catastróficos para toda a humanidade."
Se sistemas de inteligência artificial em qualquer parte do mundo desenvolvessem essas habilidades hoje, não haveria um plano para controlá-los, disse Gillian Hadfield, uma estudiosa de direito e professora de ciência da computação e governo na Universidade Johns Hopkins.
Dos dias 5 a 8 deste mês, Gillian se juntou a cientistas de todo o mundo em Veneza, na Itália, para discutir tal plano. Foi a terceira reunião dos Diálogos Internacionais sobre Segurança da IA, organizada pelo Safe AI Forum, um projeto de um grupo de pesquisa sem fins lucrativos dos Estados Unidos chamado Far.AI.
Os governos precisam saber o que está acontecendo nos laboratórios de pesquisa e empresas que trabalham em sistemas de IA em seus países, disse o grupo em sua declaração. E eles precisam de uma forma de se comunicar sobre os potenciais riscos sem que empresas ou pesquisadores precisem compartilhar informações confidenciais com concorrentes.
O grupo propôs que os países criem autoridades de segurança da IA para registrar os sistemas de inteligência artificial dentro de suas fronteiras.
Essas autoridades trabalhariam juntas para concordar com um conjunto de linhas vermelhas e sinais de alerta, como se um sistema de IA pudesse se copiar ou enganar intencionalmente seus criadores. Tudo isso seria coordenado por um órgão internacional.
Cientistas dos Estados Unidos, China, Reino Unido, Cingapura, Canadá e outros países assinaram o comunicado.