{"id":159745,"date":"2025-11-21T10:07:40","date_gmt":"2025-11-21T13:07:40","guid":{"rendered":"https:\/\/chacosintesis.com.ar\/index.php\/openai-lo-admite-la-inteligencia-artificial-esta-disenada-para-mentir-con-seguridad\/"},"modified":"2025-11-21T10:08:17","modified_gmt":"2025-11-21T13:08:17","slug":"openai-lo-admite-la-inteligencia-artificial-esta-disenada-para-mentir-con-seguridad","status":"publish","type":"post","link":"https:\/\/chacosintesis.com.ar\/index.php\/openai-lo-admite-la-inteligencia-artificial-esta-disenada-para-mentir-con-seguridad\/","title":{"rendered":"OpenAI lo admite: la inteligencia artificial est\u00e1 dise\u00f1ada para mentir con seguridad"},"content":{"rendered":"<div id=\"\">\n<p>Por estos d\u00edas, la discusi\u00f3n sobre la inteligencia artificial suele centrarse en los l\u00edmites de los modelos, su velocidad de avance o su impacto en el empleo. Sin embargo, <strong>una de las revelaciones m\u00e1s inquietantes lleg\u00f3 desde la propia OpenAI<\/strong>: las alucinaciones \u2014esas respuestas falsas, fabricadas, pero expresadas con total seguridad por los modelos\u2014 no son un error que pueda corregirse, sino una limitaci\u00f3n estructural de la tecnolog\u00eda actual.<\/p>\n<\/div>\n<div id=\"\">\n<p>La afirmaci\u00f3n no es menor. Despu\u00e9s de liderar la revoluci\u00f3n de la IA generativa con ChatGPT, la compa\u00f1\u00eda public\u00f3 un trabajo que expone un punto clave: el problema no est\u00e1 solo en los modelos, sino en c\u00f3mo los evaluamos y qu\u00e9 tipo de tareas y datos utilizamos para entrenarlos. Y, sobre todo, qu\u00e9 comportamientos recompensamos.<\/p>\n<\/div>\n<div id=\"\">\n<p>Esta mirada cambia por completo la conversaci\u00f3n sobre los riesgos, las expectativas y los usos posibles de la IA.<\/p>\n<\/div>\n<div id=\"\">\n<p><strong>Lo preocupante: las alucinaciones no son un accidente, son inevitables<\/strong><\/p>\n<\/p><\/div>\n<div id=\"\">\n<p> Durante a\u00f1os, investigadores sospechaban que ciertos errores de los grandes modelos de lenguaje no pod\u00edan resolverse \u00fanicamente con \u201cm\u00e1s datos\u201d o \u201cm\u00e1s par\u00e1metros\u201d. La nueva evidencia lo confirma. Las alucinaciones ocurren porque los modelos est\u00e1n dise\u00f1ados para completar patrones ling\u00fc\u00edsticos, no para verificar hechos.<\/p>\n<\/div>\n<div id=\"\">\n<p>Los ejemplos del estudio son reveladores. Ante una pregunta sencilla \u2014\u00bfcu\u00e1ntas letras \u201cD\u201d tiene la palabra \u201cDEEPSEEK\u201d?\u2014 modelos de \u00faltima generaci\u00f3n como DeepSeek-V3, Meta AI e incluso Claude 3.7 Sonnet fallaron una y otra vez. Algunos respondieron \u201c2\u201d, otros \u201c3\u201d y algunos llegaron a decir \u201c6\u201d o \u201c7\u201d. Ninguno acert\u00f3.<\/p>\n<p>Incluso los \u00faltimos modelos de OpenAI exhiben tasas preocupantes de error:<\/p>\n<ul>\n<li>o1 alucina en el 16% de los casos,<\/li>\n<li>o3 en el 33%,<\/li>\n<li>o4-mini en el 48%.<\/li>\n<\/ul>\n<p>La conclusi\u00f3n de los investigadores es contundente: existen tres razones estructurales que vuelven inevitables estos fallos.<\/p>\n<ul>\n<li>Falta de datos confiables: cuando el modelo no tiene informaci\u00f3n suficiente, completa los huecos inventando.<\/li>\n<li>Tareas fuera de su alcance: hay problemas que ning\u00fan modelo actual puede resolver.<\/li>\n<li>Complejidad intr\u00ednseca: incluso una IA perfecta fallar\u00eda en ciertas preguntas por la naturaleza del desaf\u00edo.<\/li>\n<\/ul>\n<p>Pero lo m\u00e1s importante es otra cosa: el sistema de evaluaci\u00f3n est\u00e1 mal dise\u00f1ado.<\/p>\n<p><strong>El gran responsable: un sistema de evaluaci\u00f3n que castiga la duda y premia la falsedad convincente<\/strong><\/p>\n<p>El hallazgo m\u00e1s inquietante es cultural, no t\u00e9cnico: en 9 de cada 10 evaluaciones actuales, los modelos son penalizados cuando responden \u201cno s\u00e9\u201d y son premiados cuando dan una respuesta incorrecta, pero dicha con seguridad.<\/p>\n<p>En otras palabras, <strong>el sistema est\u00e1 optimizado para favorecer la confianza, no la precisi\u00f3n.<\/strong><\/p>\n<p>Esto tiene un impacto directo en su comportamiento: los modelos aprenden que es mejor decir algo \u2014lo que sea\u2014 antes que admitir ignorancia. En un entorno de consumo masivo, donde millones de personas y organizaciones usan IA para tomar decisiones, esto no es un problema menor: <strong>es un riesgo sist\u00e9mico<\/strong>.<\/p>\n<p>De ah\u00ed surge el mensaje de fondo del estudio: no podemos eliminar las alucinaciones, <strong>pero s\u00ed podemos reducir su impacto cambiando c\u00f3mo evaluamos y entrenamos a la IA<\/strong>.<\/p>\n<p><strong>Qu\u00e9 necesitamos cambiar para que la IA sea realmente confiable<\/strong><\/p>\n<p>La soluci\u00f3n no pasa \u00fanicamente por m\u00e1s entrenamiento o m\u00e1s datos, sino por un nuevo enfoque de evaluaci\u00f3n:<\/p>\n<ul>\n<li>Recompensar la incertidumbre cuando es razonable.<\/li>\n<li>Dise\u00f1ar m\u00e9tricas m\u00e1s humanas y menos punitivas.<\/li>\n<li>Incorporar supervisi\u00f3n constante.<\/li>\n<li>Medir impactos reales y no solo performance estad\u00edstica.<\/li>\n<\/ul>\n<p>No importa cu\u00e1n sofisticada sea la arquitectura: sin un proceso de evaluaci\u00f3n riguroso, el modelo terminar\u00e1 reproduciendo errores que podr\u00edan haberse evitado.<\/p>\n<p>Con base en nuestra experiencia, proponemos siete pr\u00e1cticas esenciales para mejorar el entendimiento y la evaluaci\u00f3n de los LLMs:<\/p>\n<ul>\n<li>Calidad de datos: entrenar con informaci\u00f3n limpia, curada y complementada con RAG para reforzar el conocimiento real.<\/li>\n<li>Estructurar y parsear los datos: convertir informaci\u00f3n desordenada en datasets \u00fatiles y comprensibles.<\/li>\n<li>Definir tareas con precisi\u00f3n: un agente solo funciona bien cuando sabe exactamente qu\u00e9 debe responder, con qu\u00e9 fuentes y bajo qu\u00e9 criterios ser\u00e1 evaluado.<\/li>\n<li>Engineering de prompts riguroso: instrucciones claras, contexto espec\u00edfico y pruebas iterativas.<\/li>\n<li>Reducci\u00f3n de sesgos: entrenar modelos y agentes que eviten perpetuar desigualdades, algo cr\u00edtico en aplicaciones sensibles.<\/li>\n<li>Evitar la dependencia ciega de herramientas: no todo modelo sirve para todo problema; la estrategia t\u00e9cnica importa.<\/li>\n<li>Cultura data-driven: sin una organizaci\u00f3n que entienda y valore los datos, ninguna IA funcionar\u00e1 de manera robusta.<\/li>\n<\/ul>\n<p><strong> Mirar el futuro con realismo, no con ingenuidad<\/strong><\/p>\n<p>Aceptar que las alucinaciones no desaparecer\u00e1n es inc\u00f3modo, pero es el primer paso para una IA m\u00e1s segura y transparente. La clave no est\u00e1 en esperar el modelo perfecto \u2014porque no existe\u2014 sino en dise\u00f1ar sistemas que puedan detectar, mitigar y contextualizar esos errores.<\/p>\n<p>Las organizaciones que hoy usan IA para tomar decisiones cr\u00edticas necesitan entender este punto: los modelos son poderosos, pero no infalibles. Y si no se eval\u00faan de forma correcta, pueden convertirse en fuentes de riesgo.<\/p>\n<p><strong>La pregunta no es si la IA va a alucinar. La pregunta es si estamos preparados para gestionarlo.<\/strong><\/p>\n<p><strong><em>CEO de 7Puentes<\/em><\/strong><\/p>\n<\/p><\/div>\n<p><script>\n!function(f,b,e,v,n,t,s)\n{if(f.fbq)return;n=f.fbq=function(){n.callMethod?\nn.callMethod.apply(n,arguments):n.queue.push(arguments)};\nif(!f._fbq)f._fbq=n;n.push=n;n.loaded=!0;n.version='2.0';\nn.queue=[];t=b.createElement(e);t.async=!0;\nt.src=v;s=b.getElementsByTagName(e)[0];\ns.parentNode.insertBefore(t,s)}(window,document,'script',\n'https:\/\/connect.facebook.net\/en_US\/fbevents.js');\nfbq('init', '2047048335588113');\nfbq('track', 'PageView');\n<\/script><\/p>\n<p>Ambito.-<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Por estos d\u00edas, la discusi\u00f3n sobre la inteligencia artificial suele centrarse en los l\u00edmites de los modelos, su velocidad de avance o su impacto en el empleo. Sin embargo, una de las revelaciones m\u00e1s inquietantes lleg\u00f3 desde la propia OpenAI: las alucinaciones \u2014esas respuestas falsas, fabricadas, pero expresadas con total seguridad por los modelos\u2014 no [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":159756,"comment_status":"closed","ping_status":"","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[196],"tags":[],"class_list":{"0":"post-159745","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-tecno"},"_links":{"self":[{"href":"https:\/\/chacosintesis.com.ar\/index.php\/wp-json\/wp\/v2\/posts\/159745","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/chacosintesis.com.ar\/index.php\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/chacosintesis.com.ar\/index.php\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/chacosintesis.com.ar\/index.php\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/chacosintesis.com.ar\/index.php\/wp-json\/wp\/v2\/comments?post=159745"}],"version-history":[{"count":1,"href":"https:\/\/chacosintesis.com.ar\/index.php\/wp-json\/wp\/v2\/posts\/159745\/revisions"}],"predecessor-version":[{"id":159757,"href":"https:\/\/chacosintesis.com.ar\/index.php\/wp-json\/wp\/v2\/posts\/159745\/revisions\/159757"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/chacosintesis.com.ar\/index.php\/wp-json\/wp\/v2\/media\/159756"}],"wp:attachment":[{"href":"https:\/\/chacosintesis.com.ar\/index.php\/wp-json\/wp\/v2\/media?parent=159745"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/chacosintesis.com.ar\/index.php\/wp-json\/wp\/v2\/categories?post=159745"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/chacosintesis.com.ar\/index.php\/wp-json\/wp\/v2\/tags?post=159745"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}