-
La producción industrial en España sigue al alza en octubre
-
OpenAI llega a un acuerdo para construir un centro de IA de 4.600 millones en Australia
-
Jefe de Softbank dice que una super-IA podría convertir a humanos "en peces" o ganar un Nobel
-
Lluvias dificultan limpieza en Sri Lanka tras inundaciones que azotaron varios países de Asia
-
OpenAI llega a un acuerdo para construir centro de IA de USD 4.600 millones en Australia
-
Ucrania acusa a Rusia de enviar a niños ucranianos a campos de "reeducación" en Corea del Norte
-
La gira "Lux" de Rosalía llegará a Latinoamérica en julio de 2026
-
Kate Winslet, "orgullosa" de dirigir su primer filme, con guion de su hijo
-
La exjefa diplomática de la UE imputada por corrupción dimite como rectora del Colegio de Europa
-
La economía brasileña crece en el tercer trimestre impulsada por el agro
-
Defensa y comercio en el menú del viaje de Putin a India
-
Pronósticos de lluvias aumentan el temor en Indonesia y Sri Lanka tras las inundaciones
-
Aerolíneas panameñas Copa Airlines y Wingo suspenden vuelos a Venezuela por dos días
-
Policía de Brasil investiga virus que afecta a guacamayo azul en peligro de extinción
-
La proliferación de satélites amenaza la observación del cielo con telescopio
-
España anuncia un plan de subsidios para la compra de vehículos eléctricos en 2026
-
Las memorias del rey emérito Juan Carlos I llegan a las librerías españolas
-
Un apagón afecta a La Habana y varias provincias de Cuba
-
Inditex registra un beneficio neto al alza en nueve meses
-
Los bailes de salón, un antídoto contra la soledad para los jubilados de Liverpool
-
YouTube afirma que los niños estarán "menos seguros" con la restricción australiana
-
San Francisco demanda a los grandes productores de alimentos ultraprocesados
-
El balance de las inundaciones que azotan varios países de Asia supera los 1.500 muertos
-
Chile aprueba una ley que prohíbe el uso de celulares en colegios
-
La princesa Catalina elogia el poder de la "solidaridad" antes del concierto de Navidad
-
Un magnate tecnológico anuncia una millonaria donación para "cuentas Trump" para niños
-
OpenAI declara el "código rojo" ante la fuerte competencia a ChatGPT, según medios
-
El balance de muertos en las inundaciones de Indonesia supera los 800
-
Niños traumatizados por la guerra se alejan de Gaza gracias a la realidad virtual
-
Airbus rebaja objetivo de entregas para 2025 tras "problema" con fuselajes del A320
-
Crece el descontento entre damnificados de mortales inundaciones en varios países asiáticos
-
El gobierno Trump destituye a ocho jueces de inmigración en Nueva York
-
El Huevo de Invierno de Fabergé bate un récord en una subasta por 22,9 millones de libras
-
Amazon presenta un nuevo chip de inteligencia artificial para competir con Nvidia
-
Confirman siete nuevos casos de peste porcina africana cerca de Barcelona
-
Macron niega querer un "ministerio de la Verdad" en pulso con la ultraderecha
-
"Ven y mátame": el llamado de las hormigas enfermas para salvar a la colonia
-
El desempleo en la eurozona repunta en octubre, al 6,4%
-
La OCDE revisa al alza sus previsiones de crecimiento para 2025 en EEUU, China y la zona euro
-
La inflación en la zona euro aumentó al 2,2% interanual en noviembre
-
Prada completa la adquisición de Versace
-
Hong Kong prohíbe las operaciones de dos grupos prodemocracia
-
China y Japón se enfrentan en un nuevo incidente en torno a unas islas en disputa
-
Samsung lanza su primer teléfono plegable triple
-
El jefe de IA de Apple dejará su cargo
-
Descendientes de esclavos de Surinam aceptan las disculpas del Rey de Países Bajos
-
Una taquería en México hace honor a Dua Lipa con ritmo y sabor para sus fans
-
El rey emérito español alaba su trayectoria en un inesperado video
-
España despliega al ejército para luchar contra el foco de peste porcina africana en Cataluña
-
Cuatro acusados en Australia por material "satánico" de abuso infantil
Hola chatbot, "¿esto es verdad?": la verificación con IA genera desinformación
Cuando la desinformación se disparó durante los cuatro días de conflicto entre India y Pakistán, los usuarios de redes sociales recurrieron a un chatbot de inteligencia artificial (IA) para verificar los hechos, pero se encontraron con más falsedades, lo que subraya su poca fiabilidad como herramienta de verificación de datos.
Con la reducción de verificadores humanos en las plataformas tecnológicas, los usuarios recurren cada vez más a los chatbots basados en IA -como Grok, de xAI, ChatGPT, de OpenAI, y Gemini, de Google- en busca de información fiable.
"Hola @Grok, ¿esto es verdad?", se ha convertido en una pregunta habitual en la plataforma X de Elon Musk, donde el asistente de IA está integrado, lo que refleja la creciente tendencia a buscar desmentidos al instante en las redes sociales.
Pero las respuestas suelen estar plagadas de desinformación.
Grok, ahora bajo un nuevo escrutinio por insertar "genocidio blanco", una teoría conspirativa de extrema derecha, en consultas que no están relacionadas con ello, identificó erróneamente un antiguo video del aeropuerto de Jartum, en Sudán, como un ataque con misiles contra la base aérea Nur Khan de Pakistán durante el reciente conflicto de ese país con India.
Las grabaciones de un edificio en llamas en Nepal se identificaron erróneamente como que "probablemente" fueran la respuesta militar de Pakistán a los ataques indios.
"La creciente confianza en Grok como verificador de datos se produce cuando X y otras grandes empresas tecnológicas han reducido sus inversiones en verificadores de datos humanos", declaró a la AFP McKenzie Sadeghi, investigadora del organismo de vigilancia de la desinformación NewsGuard.
"Nuestras investigaciones han demostrado repetidamente que los chatbots de IA no son fuentes fiables de noticias e información, especialmente cuando se trata de noticias de actualidad", advirtió.
- Repetir falsedades -
La investigación de NewsGuard reveló que 10 de los principales chatbots eran propensos a repetir falsedades, incluidas narrativas de desinformación rusa.
En un estudio reciente de ocho herramientas de búsqueda con IA, el Centro Tow para el Periodismo Digital de la Universidad de Columbia descubrió que los chatbots eran "generalmente malos para declinar preguntas que no podían responder con precisión, ofreciendo en su lugar respuestas incorrectas o especulativas".
Cuando los verificadores digitales de la AFP en Uruguay preguntaron a Gemini sobre una imagen de una mujer generada por IA, no solo confirmó su autenticidad, sino que inventó detalles sobre su identidad y el lugar donde probablemente se tomó la imagen.
Hace poco, Grok calificó de "auténtico" un supuesto video de una anaconda gigante nadando en el río Amazonas, citando incluso expediciones científicas que parecían creíbles para apoyar su falsa afirmación.
En realidad, el video fue generado por IA, reportaron los verificadores de la AFP en América Latina, que señalaron que muchos usuarios citaron la evaluación de Grok como prueba de que el clip era real.
Estos hallazgos han suscitado preocupación, ya que las encuestas muestran que los usuarios están cambiando cada vez más los motores de búsqueda tradicionales por chatbots de IA para recopilar y verificar información.
Este cambio también coincide con el anuncio de Meta, a principios de este año, de poner fin al programa de verificación digital externo en Estados Unidos, y trasladó la tarea de desmentir las falsedades a los usuarios mediante las llamadas "notas de la comunidad", un mecanismo popularizado por X.
- "Respuestas sesgadas" -
La verificación digital realizada por personas ha sido durante mucho tiempo un punto álgido en un clima político hiperpolarizado, particularmente en Estados Unidos, donde los grupos conservadores sostienen que suprime la libertad de expresión y censura el contenido de derecha, algo que los verificadores profesionales rechazan con vehemencia.
AFP trabaja actualmente en 26 idiomas con el programa de verificación de datos de Facebook, incluyendo Asia, Latinoamérica y la Unión Europea.
La calidad y la precisión de los chatbots de IA pueden variar, dependiendo de cómo se entrenan y programan, lo que genera preocupación de que sus resultados puedan estar sujetos a influencia o control político.
xAI, de Musk, atribuyó a una "modificación no autorizada" la generación de publicaciones no solicitadas por Grok que hacían referencia al "genocidio blanco" en Sudáfrica.
Cuando el experto en IA David Caswell le preguntó a Grok quién podría haber modificado su sistema, el chatbot señaló a Musk como el culpable "más probable".
Musk, el multimillonario sudafricano partidario del presidente Donald Trump, ya había afirmado previamente que los líderes de Sudáfrica estaban "incitando abiertamente al genocidio" de la población blanca.
"Hemos visto cómo los asistentes de inteligencia artificial pueden falsificar resultados o dar respuestas sesgadas después de que programadores humanos modifiquen específicamente sus instrucciones", declaró a la AFP Angie Holan, directora de la Red Internacional de Verificación de Datos.
"Me preocupa especialmente la forma en que Grok ha gestionado incorrectamente solicitudes sobre asuntos muy sensibles tras recibir instrucciones para proporcionar respuestas preautorizadas".
burs-ac/nl/db/val
X.Cheung--CPN