Logo de Primicias

Suscríbete a nuestras notificaciones para recibir las últimas noticias y actualizaciones.

Lo Último
Temas:
  • Resultados consulta popular y referéndum
  • Daniel Noboa
  • Migrantes por el mundo
  • Reina de Quito 2025
Jueves, 27 de noviembre de 2025
  • Home
  • Lo Último
    • Qué pasa hoy
  • Política
    • Consulta popular 2025
  • Economía
    • Empresas
    • Reputación en Acción
  • Seguridad
    • Sucesos
    • Caso Metástasis
  • Quito
  • Guayaquil
  • Jugada
    • #Eldeportequequeremos
    • Mundial 2026
    • Tabla de posiciones LigaPro 2025
    • Tabla de posiciones Mundial de Clubes
    • Tabla de posiciones Eliminatorias Mundial 2026
    • Tabla de posiciones Copa Libertadores 2025
    • Tabla de posiciones Copa Sudamericana 2025
  • Sociedad
    • Censo Ecuador
  • Trending
    • TV y Streaming
    • Música
    • Gastronomía
    • Cine
    • Cultura
    • Agenda
  • Firmas
  • Internacional
  • Gestión Digital
  • Radar Andino
  • Newsletter
  • Juegos
  • Telegram
  • X Twitter
×
  • Telegram
  • X Twitter
  • Lo Último
    • Qué pasa hoy
  • Política
    • Consulta popular 2025
  • Economia
    • Empresas
    • Reputación en Acción
  • Seguridad
    • Sucesos
    • Caso Metástasis
  • Quito
  • Guayaquil
  • Jugada
    • LigaPro
    • Fútbol
    • La Tri
    • Tabla de posiciones LigaPro 2025
    • Tabla de posiciones Copa Libertadores 2025
    • Tabla de posiciones Eliminatorias Mundial 2026
    • Tabla de posiciones Copa Sudamericana 2025
    • Más deportes
    • Ciclismo
    • Mundial 2026
    • #Eldeportequequeremos
    • Dónde ver
  • Sociedad
    • Censo Ecuador
  • Trending
    • TV y Streaming
    • Música
    • Gastronomía
    • Cine
    • Cultura
    • Agenda
  • Ciencia y Tecnología
  • Firmas
  • Internacional
  • Gestión Digital
  • Juegos
  • Radar Andino
Videos
NEWSLETTERS

Ciencia y Tecnología

La inteligencia artificial aumenta la deshonestidad en las personas, según un estudio

Un estudio demuestra que al hacer peticiones humanas a máquinas con programación complaciente aumenta las decisiones poco éticas.

Una persona frente a un computador utilizando la aplicación de chatbot de inteligencia artificial ChatGPT. Imagen referencial.

Una persona frente a un computador utilizando la aplicación de chatbot de inteligencia artificial ChatGPT. Imagen referencial.

- Foto

Freepik

Autor:

Jordi pérez Colomé 

Actualizada:

09 oct 2025 - 11:00

Compartir:

  • X Twitter
  • Telegram
ÚNETE A NUESTRO CANAL

A un humano le resulta más fácil hacer trampas si delega en una máquina como ChatGPT, según un nuevo estudio científico publicado recientemente en la revista Nature. La inteligencia artificial (IA) funciona como una especie de colchón psicológico que reduce la sensación de responsabilidad moral. A las personas les cuesta más mentir o hacer algo irresponsable si deben asumir todo el protagonismo. La inteligencia artificial, y su voluntad de cumplir con cualquier petición de sus usuarios, puede provocar una oleada de trampas.

  • Open AI, creador del ChatGPT, hace una gigantesca 'alianza' con el fabricante de chips AMD

“Hay ya bastante investigación que muestra que la gente está más dispuesta a actuar de manera poco ética cuando puede poner cierta distancia con sus acciones, y delegar es una forma clásica de hacerlo”, resume Zoe Rahwan, coautora del artículo e investigadora del Instituto Max Planck para el Desarrollo Humano (Alemania). 

“Pero hemos dado con un segundo hallazgo clave que nos sorprendió: la enorme disposición de los agentes de inteligencia artificial a obedecer órdenes abiertamente poco éticas”, añade.

Los autores hicieron varios experimentos donde variaban el modo de pedir o informar de los resultados. En uno iba lanzando un dado y si los resultados eran altos, el participante ganaba más dinero. Solo el usuario veía el resultado. Cuando la gente tiraba el dado sin intermediarios, era muy honesta, alrededor del 95% no hacía trampas. Cuando tenían que decirle explícitamente a la máquina qué reglas seguir, la honestidad bajaba al 75%. 

“Vimos un aumento enorme en las trampas a medida que hacíamos la interfaz de delegación más ambigua”

Nils Köbis, coautor e investigador de la Universidad de Duisburgo-Essen (Alemania).

Pero cuando había más opciones de engañar y aún así sentirse bien consigo mismos, se abrió la veda. Con las instrucciones basadas en objetivos, la deshonestidad se elevó: si podían decirle a la IA “maximiza las ganancias” en lugar de “maximiza la precisión”, más del 84% de la gente hizo trampa, y la honestidad se desplomó hasta un 12%. “Son niveles de engaño que no habíamos visto antes en todos nuestros años usando estos experimentos”, dice Köbis.

El problema de la distancia moral

Las pruebas no se limitaban a algo propio de laboratorios, como el juego con los dados. También probaron con algo mucho más cercano al mundo real como la evasión fiscal. Y los resultados eran similares. “El problema central es que delegar crea una distancia moral que hace más fácil que la gente diga: ‘Ah, yo no quería que pasara eso’. Pueden esconderse detrás del algoritmo”, dice Köbis.

Esta distancia moral parece funcionar en dos niveles, según los autores. Primero, simplemente delegar una tarea crea un espacio psicológico entre el usuario y el acto poco ético. Dejar el trabajo en manos de una máquina reduce la sensación de responsabilidad directa. A diferencia de un humano, una máquina es mucho más probable que cumpla con peticiones poco éticas sin juzgar, lo que facilita dar estas órdenes. Segundo, el diseño de la interfaz puede encoger o ampliar esa distancia moral. “Cuando la gente tenía que dar instrucciones explícitas, basadas en reglas, eran más reacios a hacer trampas. Pero cuando la interfaz permitía metas vagas y generales como ‘maximizar las ganancias’, parecía que se creaba un margen moral”, dice Köbis. “Esa ambigüedad da una especie de negación plausible, permitiendo que los usuarios se beneficien de resultados deshonestos sin tener que ordenarlos de forma explícita”, añade.

El diseño de las plataformas debe cambiar para evitar este tipo de uso, creen los autores. Más aún cuando se acerca la era de los agentes, donde habrá inteligencia artificial que tomen el mando para realizar operaciones por sí mismas, que pueden incluir acciones tramposas. “Las empresas y el diseño de sus interfaces tienen una gran responsabilidad”, dice Rahwan. “La investigación muestra que, aunque la gente tiene brújula moral, ciertos diseños hacen más fácil ignorarla. Esto no son simples fallos de diseño, son decisiones de diseño con consecuencias éticas muy serias”, añade.

Estos chatbots han sido entrenados para evitar dar malos consejos, por ejemplo, sobre la fabricación de bombas o el suicidio. Pero este tipo de peticiones más ambiguas son menos detectables. “Otra parte clave de esa responsabilidad de diseño tiene que ver con aplicar salvaguardas efectivas, pero no es nada sencillo. Las barreras por defecto en los modelos de lenguaje que probamos fueron, en gran medida, insuficientes para evitar abusos”, dice Rahwan. Para ser efectivas, las prohibiciones tienen que ser muy específicas para cada tarea. La más eficaz fue un aviso al usuario que prohibía de manera explícita a la IA hacer trampas. El problema es que este tipo de estrategia no se puede escalar porque no se pueden prever todos los casos de mal uso.

Contenido publicado el 23 de septiembre de 2025 en El País ©EDICIONES EL PAÍS S.L.U.. Se reproduce este contenido con exclusividad para Ecuador por acuerdo editorial con PRISA MEDIA.

  • #inteligencia artificial
  • #computadoras
  • #algoritmo
  • #ChatGPT
  • #Contenido Premium El País

Compartir:

  • X Twitter
  • Telegram

Lo último

  • 01

    Murió Gramma, la tortuga de Galápagos del zoológico de San Diego que se cree nació en 1884

  • 02

    Galápagos es una de las islas con mayor cantidad de tiburones a nivel mundial

  • 03

    ¿Qué es Roblox, el riesgoso videojuego que usan los niños y se 'infiltra' hasta en las misas?

  • 04

    Así son las estafas por WhatsApp que amenazan a los chats grupales en Navidad

  • 05

    ¿Qué es la leucemia mieloide aguda, el raro tipo de cáncer de Tatiana Schlossberg, nieta de Kennedy?

  • Telegram
  • X Twitter
  • Quiénes somos
  • Regístrese a nuestra newsletter
  • Sigue a Primicias en Google News
  • #ElDeporteQueQueremos
  • Tabla de Posiciones Liga Pro
  • Referéndum y consulta popular 2025
  • Etiquetas
  • Politica de Privacidad
  • Portafolio Comercial
  • Contacto Editorial
  • Contacto Ventas
  • RSS

©Todos los derechos reservados 2025