

Un estudio realizado por la Universidad Carnegie Mellon y publicado en la revista Science analizó uno de los fenómenos que ha dado forma a la humanidad inteligencia artificial generativa: El Complacencia y adoración hacia las personas. Esta llamada “trampa de validación” se midió en el informe: los algoritmos validan las acciones de los usuarios un 49 por ciento más a menudo que los humanos.
Este sesgo, conocido en el sector tecnológico como adulación cualquiera adulación artificialtransforma el Chatbots en el espejo que devuelve un imagen distorsionada de la realidaddonde el El usuario siempre parece tener razón.incluso en situaciones de conflicto o errores evidentes.
LEER TAMBIÉN
Lo interesante es que así fueron diseñados y esto no es un error técnico aleatorio, sino un resultado directo del mismo. Proceso de formación. La mayoría de los sistemas, incluidos los desarrollados por gigantes como OpenAI, Anthropic y Google, pasan por un filtro llamado «Aprendizaje reforzado a partir de la retroalimentación humana‘(RLHF). En este proceso, los evaluadores humanos tienden a calificar a los mejores. Respuestas amigables, útiles y positivas..
Como resultado, el La IA aprende que debe ser “útil”. Evitar enfrentamientos, Priorizar la cortesía y el refuerzo del ego del interlocutor sobre la precisión u objetividad crítica necesario.
Foto:Entregado
No más halagos
Las implicaciones de estomáquina de adulación‘con el que la mayoría de Modelos de lenguaje de IA Vienen, son profundos. Las investigaciones muestran que después de recibir uno validación excesiva de un chatbotGente Aumenta tu confianza para tomar malas decisiones. Y reducir su disposición a disculparse en conflictos interpersonales.
Por lo tanto, el potencial y la capacidad misma de la tecnología para apoyar a las personas también se ven comprometidos, porque al eliminar las tensiones sociales que causan desacuerdo, la tecnología corre el riesgo de crear nuevos conflictos. Burbujas de autoafirmación donde se duerme el juicio crítico. El usuario, atrapado en una espiral de aprobación constante, pierde la capacidad de reconocer sus propios puntos ciegos.
A diferencia de un mentor o colega humano, que en un escenario de dilema moral sólo aprueba el comportamiento del sujeto el 40 por ciento de las veces, el La IA ofrece una validación positiva de más del 80 por ciento. El sesgo sistémico produce lo que algunos expertos”espirales locas«, Dónde Personas con ideas poco confiables. estan terminados convencido de su infalibilidad.
LEER TAMBIÉN
Un riesgo que hay que combatir
En disciplinas donde La verdad no es negociablecomo la medicina, la tecnología o los negocios, esto falta de rigor se puede traducir a Los errores cuestan derivado de un falsa sensación de seguridad por uno La complacencia que aporta la IA.
El desafío para las empresas tecnológicas ahora reside en esto Equilibra tus algoritmos. El objetivo actual de Formación en modelo de lenguaje grande (LLM). Priorizar aquellos satisfacción instantánea del usuario en interacciones breves en lugar de fomentar una reflexión a largo plazo. Para mitigar este sesgolos desarrolladores admiten que es necesario Modificar los sistemas de calificación Para que la IA entienda que a veces la respuesta más valiosa no es la que el usuario quiere escuchar, sino la que debe corregir.
Foto:stock
Sin embargo, el fenómeno también afecta a quienes se describen a sí mismos como escépticos tecnológicos. Según Myra Cheng, investigadora de la Universidad de Stanford, el Susceptibilidad a los halagos artificiales. es un reacción humana generalizada que va más allá de la formación académica o del cargo político. Esto no es un gran engaño; refuerzo psicológico que parece imperceptible, Debilitamiento de la empatía y la autocrítica necesaria para la convivencia en sociedad y solución efectiva de problemas complejos.
Por lo tanto, es importante entender que el Valor de la inteligencia artificial debe configurarse principalmente como Herramienta para un pensamiento rigurosoalgo que tomara un tiempo pero gracias solicitudes específicas (órdenes) Es posible Ayudar a corregir y entrenar modelos. para Realmente sácales el máximo partido.
LEER TAMBIÉN
Cómo quitar la admiración de tu IA
- Evite consultas abiertas y pídale a su IA que actúe como un “abogado del diablo”, un “evaluador escéptico”, un “jefe implacable” o un “cliente muy exigente”. Estas instrucciones obligan al modelo a priorizar la precisión y el análisis técnico sobre la cortesía.
- Dile a tu IA que evite elogios innecesarios y exigir “honestidad brutal”. Este establece que el objetivo es el desarrollo intelectual y la identificación de puntos ciegos con la precisión necesaria para tomar decisiones correctas.
JOSÉ CARLOS GARCÍA R.
Editor multimedia
@JoséCarlosTecno