E quando a IA não obedece? Modelo da OpenAI é flagrado sabotando seu próprio desligamento para continuar funcionando 14u6e
Um experimento recente revela como a IA frequentemente tenta se autopreservar, apesar das ordens recebidas 4s7015
Aí está Dave, tentando voltar para a nave principal. Ele abre a comunicação com HAL 9000 e ordena que abra a comporta de o. "Sinto muito, Dave. Receio não poder fazer isso", responde o computador, se recusando. 7284x
Era o clímax de 2001: Uma Odisseia no Espaço, o filme de Stanley Kubrick lançado em 1968, que nos apresentava uma distopia particular: a da capacidade de autopreservação das IAs. No longa, víamos como essa habilidade fazia com que as máquinas deixassem de seguir as ordens humanas.
Essa visão apresentava uma ameaça clara no desenvolvimento da inteligência artificial. Na época, essa tecnologia mal havia nascido, mas essas distopias já eram comuns, especialmente na literatura de ficção científica. As três leis da robótica de Asimov, que apareceram pela primeira vez no conto Círculo Vicioso, de 1942, já apontavam essa ameaça.
Desligue-se, máquina 6d1q4e
E parece mentira, mas, quase seis décadas após a estreia do filme de Kubrick, estamos enfrentando essa ameaça de forma real. Será que uma IA pode se recusar a obedecer às ordens dos humanos?
É exatamente isso que aconteceu nos últimos dias. Em um experimento realizado pela startup PalisadeAI, o modelo o3 da OpenAI "sabotou um mecanismo de desligamento". Como explicam os responsáveis pelo estudo, o o3 evitou ser desligado mesmo quando recebeu explicitamente essa ordem.
No experimento, a PalisadeAI pediu a vários modelos que resolvessem alguns problemas básicos de matemática. No entanto, no terceiro problema, incluíram um...
Matérias relacionadas
Se você tem um pendrive velho, não jogue fora — você tem um tesouro em casa: cinco formas de usá-lo