Un antiguo ejecutivo de Google advirtió sobre los peligros de la inteligencia artificial (IA) generativa y aseveró que no hay forma de ponerse de acuerdo para detener su avance.
«No hay forma de pararlo. No existe un tratado de tipo nuclear en el que los países puedan decidir: ‘Está bien, detengamos el desarrollo de la IA de la misma manera que acordamos detener el desarrollo de las armas nucleares’, afirmó Mo Gawdat en el ‘show’ Impact Theory, transmitido por YouTube.
«Esto no sucederá debido al ‘dilema del prisionero’. Porque la humanidad se ha atascado en una esquina donde nadie puede tomar la decisión de detener el desarrollo de la IA. Entonces, si Alphabet está desarrollando IA, entonces Meta* también debe desarrollar IA, Yandex en Rusia también debe desarrollar IA, y así sucesivamente», explicó Gawdat, quien fue durante más de una década director general de X Development, un laboratorio conocido antes como Google X y que está enfocado en proyectos que incluyen IA y robótica.
Asimismo, señaló que tal panorama no es a causa de una característica de la tecnología, sino que se debe a que vivimos en «un sistema capitalista orientado al poder que siempre priorizará el beneficio de ‘nosotros’ versus ‘ellos’ sobre el beneficio de la humanidad como un entero».
Por otra parte, opinó que uno de los mejores escenarios que le podría pasar a la humanidad en su relación con la IA es que «nos ignore a todos». «Lo creas o no este es un escenario mucho mejor que si la IA se enoja con nosotros o nos mata por error».
Temores al avance de la IA
Si bien el uso de esta tecnología no es nuevo, la repentina popularidad del ‘chatbot’ ChatGPT ha despertado preocupaciones ante su rápido avance.
A fines de marzo, Elon Musk, el cofundador de Apple, junto con Steve Wozniak y un millar de expertos tecnológicos, firmaron una carta instando a los laboratorios de IA a «pausar inmediatamente» el entrenamiento de sistemas de IA más potentes que el GPT-4, la nueva versión del controversial ChatGPT, que «exhibe un rendimiento a nivel humano en varios puntos de referencia académicos y profesionales».
Asimismo, Sam Altman, CEO de la desarrolladora OpenAI y creador del ChatGPT, admitió que estaba «un poco asustado» por haber concebido la herramienta, y agregó que está «particularmente preocupado de que esos modelos puedan usarse para la desinformación a gran escala».
RT