En un nuevo día, nos encontramos con una nueva alarma sobre cómo la inteligencia artificial podría llevarnos al borde de la aniquilación como civilización.
Esta advertencia proviene de un conjunto de líderes empresariales, expertos y científicos destacados en el campo, liderados por Sam Altman, el cerebro detrás de ChatGPT.
Han emitido un breve comunicado que indica que el posible «riesgo de extinción» que presenta la IA debe ser tratado con la misma seriedad que otras posibles catástrofes globales, como una guerra nuclear.
El comunicado, aunque firmado por personalidades reconocidas en el mundo de la IA, destaca por su concisión. En tan solo unas pocas palabras, expresa una preocupación, más que un plan concreto de acción para prevenir la aniquilación que supuestamente podrían causar.
Como menciona el comunicado, publicado en la página web del Center for AI Safety , una organización sin ánimo de lucro:
Deberíamos priorizar la mitigación del riesgo de extinción por la IA, al igual que otros riesgos de magnitud global como las pandemias y la guerra nuclear.
Aunque, si somos honestos, parece que hasta podría haber sido redactado por ChatGPT.
Sin embargo, existe una razón detrás de la brevedad de este mensaje. Según la organización, hay muchas voces que están debatiendo los riesgos de la IA, incluyendo expertos, legisladores, periodistas y el público en general. No obstante, consideran que es complicado transmitir de manera clara y contundente los peligros más graves e inmediatos que trae consigo esta tecnología.
Con este mensaje, por lo tanto, buscan «iniciar la conversación» y dar a conocer quiénes son los especialistas que están realmente preocupados por este problema.
Por supuesto, Sam Altman no es el único signatario de este mensaje. Junto al creador de ChatGPT, se encuentran nombres como Demmis Hassabis, CEO de Google Deepmind, Dario Amodei, CEO de Anthropic, Emad Mostaque, CEO de Stability AI, y Kevin Scott, jefe de tecnología de Microsoft. Así como investigadores de la talla de Geoffrey Hinton, Yoshua Bengio y Lex Fridman, entre otros.
¿Representan ChatGPT y otras IA una amenaza de extinción para la civilización?
Más allá de la peculiar manera en la que los expertos han decidido expresar su preocupación por la IA, el comunicado invita a leer entre líneas. Lo que dicen no necesariamente implica que crean que Bard o ChatGPT son capaces de convertirse en Skynet y desatar la rebelión de las máquinas.
Sin embargo, sí sugieren que el impacto de la IA en la vida diaria de millones de personas no debe ser dejado al azar. Por lo tanto, consideran esencial investigar e implementar las medidas de protección necesarias para que, en el futuro, la IA no se pueda utilizar para fines destructivos de la misma magnitud que una guerra nuclear o una pandemia.
Esto, indudablemente, coincide con el debate sobre la regulación de esta tecnología, una discusión que incluso está siendo promovida por los propios líderes del sector, como la startup de Sam Altman.
En esta línea, el comunicado emitido por el Center for AI Safety parece diferenciarse de la polémica carta abierta promovida por Elon Musk . Esta última apuntaba directamente a OpenAI y proponía pausar durante 6 meses el desarrollo de modelos de lenguaje más potentes que GPT-4. Los expertos que apoyaban al magnate consideraban que la tecnología detrás de ChatGPT, Bing o Copilot X podría tener «efectos catastróficos para la sociedad».
Lo curioso es que varios de los signatarios de aquella carta también apoyan el nuevo comunicado.
Los peligros de la IA
A pesar de lo breve del comunicado impulsado por el creador de ChatGPT y las principales mentes del mundo de la IA, ya existe una amplia documentación sobre los riesgos de esta tecnología. De hecho, el Center for AI Safety ha recopilado algunos ejemplos de cómo la inteligencia artificial podría ser utilizada para fines nefastos . Algunos son aplicaciones potenciales actuales, mientras que otros son proyecciones futuras.
En este sentido, se menciona la posibilidad de utilizar la IA como un arma:
Los métodos de aprendizaje por refuerzo profundo ya se han aplicado a la guerra aérea, y las herramientas de aprendizaje automático para el descubrimiento de fármacos podrían ser utilizadas para construir armas químicas.
Además, hablan del uso de la tecnología para difundir desinformación. Algo que hemos visto recientemente con las fotos del supuesto arresto de Donald Trump o la falsa ministra de Salud de Japón.
Otro riesgo que implica la IA es que los sistemas más competentes puedan concentrar mucho poder en un grupo muy pequeño de personas. Algo que, de hecho, ya se ha criticado a OpenAI tras el furor de herramientas como Dall-E y ChatGPT. Tanto es así que Sam Altman negó que su tecnología esté evolucionando sin control, y aseguró que actualmente ni siquiera están pensando en desarrollar un GPT-5 .
Si los riesgos de la IA realmente se equiparan a otros eventos catastróficos, será interesante ver cómo se aborda su posible regulación. Algo que está lejos de depender únicamente de la buena voluntad de los expertos y los científicos.
La participación de los legisladores también será crucial, por no hablar de las empresas que hoy invierten miles de millones de dólares. Pero no olvidemos que los peligros de la IA son solo una parte de una historia más amplia, y que la tecnología también ofrece potenciales grandes beneficios para la humanidad, especialmente en áreas como la educación y la salud.
Por eso, como dijo recientemente Bill Gates , es necesario encontrar un equilibrio:
Debemos equilibrar los miedos sobre los inconvenientes de la IA, que son comprensibles y válidos, con su capacidad para mejorar la vida de las personas. Para aprovechar al máximo esta nueva y extraordinaria tecnología, debemos protegernos contra los riesgos y distribuir los beneficios a la mayor cantidad de personas posible.
El cargo Desarrollador de ChatGPT advierte: el peligro de extinción por la IA es tan grave como el de un conflicto nuclear apareció primero en Tecnovedosos.
source https://tecnovedosos.com/desarrollador-chatgpt-advierte-peligro-extincion-ia-conflicto-nuclear/