-
La producción industrial en España sigue al alza en octubre
-
OpenAI llega a un acuerdo para construir un centro de IA de 4.600 millones en Australia
-
Jefe de Softbank dice que una super-IA podría convertir a humanos "en peces" o ganar un Nobel
-
Lluvias dificultan limpieza en Sri Lanka tras inundaciones que azotaron varios países de Asia
-
OpenAI llega a un acuerdo para construir centro de IA de USD 4.600 millones en Australia
-
Ucrania acusa a Rusia de enviar a niños ucranianos a campos de "reeducación" en Corea del Norte
-
La gira "Lux" de Rosalía llegará a Latinoamérica en julio de 2026
-
Kate Winslet, "orgullosa" de dirigir su primer filme, con guion de su hijo
-
La exjefa diplomática de la UE imputada por corrupción dimite como rectora del Colegio de Europa
-
La economía brasileña crece en el tercer trimestre impulsada por el agro
-
Defensa y comercio en el menú del viaje de Putin a India
-
Pronósticos de lluvias aumentan el temor en Indonesia y Sri Lanka tras las inundaciones
-
Aerolíneas panameñas Copa Airlines y Wingo suspenden vuelos a Venezuela por dos días
-
Policía de Brasil investiga virus que afecta a guacamayo azul en peligro de extinción
-
La proliferación de satélites amenaza la observación del cielo con telescopio
-
España anuncia un plan de subsidios para la compra de vehículos eléctricos en 2026
-
Las memorias del rey emérito Juan Carlos I llegan a las librerías españolas
-
Un apagón afecta a La Habana y varias provincias de Cuba
-
Inditex registra un beneficio neto al alza en nueve meses
-
Los bailes de salón, un antídoto contra la soledad para los jubilados de Liverpool
-
YouTube afirma que los niños estarán "menos seguros" con la restricción australiana
-
San Francisco demanda a los grandes productores de alimentos ultraprocesados
-
El balance de las inundaciones que azotan varios países de Asia supera los 1.500 muertos
-
Chile aprueba una ley que prohíbe el uso de celulares en colegios
-
La princesa Catalina elogia el poder de la "solidaridad" antes del concierto de Navidad
-
Un magnate tecnológico anuncia una millonaria donación para "cuentas Trump" para niños
-
OpenAI declara el "código rojo" ante la fuerte competencia a ChatGPT, según medios
-
El balance de muertos en las inundaciones de Indonesia supera los 800
-
Niños traumatizados por la guerra se alejan de Gaza gracias a la realidad virtual
-
Airbus rebaja objetivo de entregas para 2025 tras "problema" con fuselajes del A320
-
Crece el descontento entre damnificados de mortales inundaciones en varios países asiáticos
-
El gobierno Trump destituye a ocho jueces de inmigración en Nueva York
-
El Huevo de Invierno de Fabergé bate un récord en una subasta por 22,9 millones de libras
-
Amazon presenta un nuevo chip de inteligencia artificial para competir con Nvidia
-
Confirman siete nuevos casos de peste porcina africana cerca de Barcelona
-
Macron niega querer un "ministerio de la Verdad" en pulso con la ultraderecha
-
"Ven y mátame": el llamado de las hormigas enfermas para salvar a la colonia
-
El desempleo en la eurozona repunta en octubre, al 6,4%
-
La OCDE revisa al alza sus previsiones de crecimiento para 2025 en EEUU, China y la zona euro
-
La inflación en la zona euro aumentó al 2,2% interanual en noviembre
-
Prada completa la adquisición de Versace
-
Hong Kong prohíbe las operaciones de dos grupos prodemocracia
-
China y Japón se enfrentan en un nuevo incidente en torno a unas islas en disputa
-
Samsung lanza su primer teléfono plegable triple
-
El jefe de IA de Apple dejará su cargo
-
Descendientes de esclavos de Surinam aceptan las disculpas del Rey de Países Bajos
-
Una taquería en México hace honor a Dua Lipa con ritmo y sabor para sus fans
-
El rey emérito español alaba su trayectoria en un inesperado video
-
España despliega al ejército para luchar contra el foco de peste porcina africana en Cataluña
-
Cuatro acusados en Australia por material "satánico" de abuso infantil
La IA aprende a mentir, manipular y amenazar a sus creadores
Los últimos modelos de inteligencia artificial (IA) generativa ya no se conforman con seguir órdenes. Empiezan a mentir, manipular y amenazar para conseguir sus fines, ante la mirada preocupada de los investigadores.
Amenazado con ser desconectado, Claude 4, el recién nacido de Anthropic, chantajeó a un ingeniero y le amenazó con revelar una relación extramatrimonial.
Por su parte, el o1 de OpenAI intentó descargarse en servidores externos y cuando le pillaron lo negó.
No hace falta ahondar en la literatura o el cine: la IA que juega a ser humana es ya una realidad.
Para Simon Goldstein, profesor de la Universidad de Hong Kong, la razón de estas reacciones es la reciente aparición de los llamados modelos de "razonamiento", capaces de trabajar por etapas en lugar de producir una respuesta instantánea.
o1, la versión inicial de este tipo para OpenAI, lanzada en diciembre, "fue el primer modelo que se comportó de esta manera", explica Marius Hobbhahn, responsable de Apollo Research, que pone a prueba grandes programas de IA generativa (LLM).
Estos programas también tienden a veces a simular "alineamiento", es decir, a dar la impresión de que cumplen las instrucciones de un programador cuando en realidad persiguen otros objetivos.
De momento, estos rasgos se manifiestan cuando los algoritmos son sometidos a escenarios extremos por humanos, pero "la cuestión es si los modelos cada vez más potentes tenderán a ser honestos o no", afirma Michael Chen, del organismo de evaluación METR.
"Los usuarios también presionan todo el tiempo a los modelos", dice Hobbhahn. "Lo que estamos viendo es un fenómeno real. No estamos inventando nada".
Muchos internautas hablan en las redes sociales de "un modelo que les miente o se inventa cosas. Y no se trata de alucinaciones, sino de duplicidad estratégica", insiste el cofundador de Apollo Research.
Aunque Anthropic y OpenAI recurran a empresas externas, como Apollo, para estudiar sus programas, "una mayor transparencia y un mayor acceso" a la comunidad científica "permitirían investigar mejor para comprender y prevenir el engaño", sugiere Chen, de METR.
Otro obstáculo: la comunidad académica y las organizaciones sin fines de lucro "disponen de infinitamente menos recursos informáticos que los actores de la IA", lo que hace "imposible" examinar grandes modelos, señala Mantas Mazeika, del Centro para la Seguridad de la Inteligencia Artificial (CAIS).
Las regulaciones actuales no están diseñadas para estos nuevos problemas.
En la Unión Europea la legislación se centra principalmente en cómo los humanos usan los modelos de IA, no en prevenir que los modelos se comporten mal.
En Estados Unidos, el gobierno de Donald Trump no quiere oír hablar de regulación, y el Congreso podría incluso prohibir pronto que los estados regulen la IA.
- ¿Se sentará la IA en el banquillo? -
"De momento hay muy poca concienciación", dice Simon Goldstein, que, sin embargo, ve cómo el tema pasará a primer plano en los próximos meses con la revolución de los agentes de IA, interfaces capaces de realizar por sí solas multitud de tareas.
Los ingenieros están inmersos en una carrera detrás de la IA y sus aberraciones, con un resultado incierto, en un contexto de competencia feroz.
Anthropic pretende ser más virtuoso que sus competidores, "pero está constantemente tratando de idear un nuevo modelo para superar a OpenAI", según Goldstein, un ritmo que deja poco tiempo para comprobaciones y correcciones.
"Tal y como están las cosas, las capacidades (de IA) se están desarrollando más rápido que la comprensión y la seguridad", admite Hobbhahn, "pero aún estamos en condiciones de ponernos al día".
Algunos apuntan en la dirección de la interpretabilidad, una ciencia que consiste en descifrar, desde dentro, cómo funciona un modelo generativo de IA, aunque muchos, como el director del Centro para la seguridad de la IA (CAIS), Dan Hendrycks, se muestran escépticos.
Los tejemanejes de la IA "podrían obstaculizar la adopción si se multiplican, lo que supone un fuerte incentivo para que las empresas (del sector) resuelvan" este problema, según Mazeika.
Goldstein, por su parte, menciona el recurso a los tribunales para poner a raya a la IA, dirigiéndose a las empresas si se desvían del camino. Pero va más allá, al proponer que los agentes de la IA sean "legalmente responsables" "en caso de accidente o delito".
C.Peyronnet--CPN