Aseguran que IA sugiere riesgo de extinción como las pandemias y la guerra nuclear

Transición energética
photo_camera Transición energética

Este martes un grupo de más de 300 expertos e investigadores de la industria, entre los que se encuentran el director ejecutivo de Google DeepMind, Demis Hassabis; Dario Amodei, director ejecutivo de Anthropic, y el director ejecutivo de OpenAI, Sam Altman, entre otros, advierten por medio de una carta que la inteligencia artificial (IA) plantea un “riesgo de extinción” comparable al de las pandemias o la guerra nuclear.

“Mitigar el riesgo de extinción de la IA debería ser una prioridad mundial junto con otros riesgos a escala social, como las pandemias y la guerra nuclear”, expresa el comunicado de un párrafo difundido por Center for AI Safety, una organización sin fines de lucro con sede en San Francisco.

Igualmente, otros de los firmantes del comunicado son Geoffrey Hinton -quien fue bautizado como el “padrino” de la IA y tuvo parte de su carrera en Google- y Youshua Bengio, dos de los tres investigadores de IA que obtuvieron el Premio Turing 2018 -premio conocido popularmente como el Premio Nobel de la informática por su labor en IA.

A partir de que el chatbot de OpenAI, ChatGPT, se lanzó ha aumentado la preocupación acerca de las consecuencias que podría acarrear el éxito de esta tecnología, siendo dos de los mayores temores la transmisión a gran escala de desinformación y propaganda, así como también la posible eliminación de trabajos de todo tipo.

A su vez, Hinton, en una reciente entrevista con The New York Times el pasado 1 de mayo, fue más allá y apuntó su intranquilidad por que esta tecnología supere la capacidad intelectual de un humano. Con información de Primicias24.

Comentarios