Ciberseguridad en tiempos de IA: tres expertos alertan que es mejor desconfiar de los chatbots
Definidos como una 'caja negra', de la que se sabe muy poco, tres expertos de ciberseguridad cuentan cómo los chatbots pueden filtrar datos sensibles y propagar la desinformación.

Fotografía referencial que ilustra la inseguridad de una computadora conectada a Internet.
- Foto
FlyD / Unsplash
Autor:
Actualizada:
Compartir:
La carrera de la Inteligencia Artificial no solamente radica en los avances que empresas como Google, OpenAI o DeepSeek presumen, también se hace presente en la cantidad de personas que usan los chatbots, algo que puede traernos varios problemas de ciberseguridad.
Desde la cantidad y el tipo de información que se entrega a estos chatbots (que no hay manera de conocer cómo funcionan en casi la totalidad de los casos), hasta escenarios en los que un usuario común puede, por accidente o insistencia, convertirse en un 'hacker', la era de la IA viene acompañada de nuevas problemáticas.

PRIMICIAS pudo conversar con tres expertos en el marco del ESET Security Day de 2025, donde un dato clave abrió la serie de exposiciones: en 2024 más del 40% de contenido generado en Internet era artificial.
Ola Bini, reconocido hacker sueco que lleva años viviendo en Ecuador y que ahora está a la cabeza del Centro de Autonomía Digital y de Seguridad Digital EC; Mario Micucci, investigador de seguridad de ESET para Latinoamérica; y Emiliano Piscitelli, CEO y fundador de BeyGoo, expusieron sus principales preocupaciones sobre la ciberseguridad en tiempos del boom de la IA.
Cajas negras y datos sensibles filtrados
"Tenemos que entender que hoy todas las tecnologías están siendo enlatadas, es decir, tenemos empresas que desarrollan sus propios sistemas y no sabes qué pasa detrás de estos sistemas", comenta Mario Micucci al describir la naturaleza de la inteligencia artificial.
"Es una caja negra. Ni más, ni menos", dice este investigador argentino al hacer referencia a un término que se usa para señalar a un dispositivo que el usuario no sabe cómo funciona por dentro, pero aún así lo usa.

Esta suerte de caja negra, que prácticamente nadie puede observar, puede facilitar el acceso a información confidencial con poco esfuerzo.
"Hace unos años hubo un caso muy popular con gente de Samsung que empezó a utilizar ChatGPT para trabajar con unos números de serie de dispositivos. Esa información era confidencial, pero todo lo que va ahí después es parte de la comunidad. Bueno, el asunto es que terceros pudieron acceder a ese tipo de información confidencial", comenta Micucci.
Pero ¿cómo pudo pasar eso? "No hace falta demasiada sofisticación. Simplemente basta con operar con los prompts", es decir, ir probando hasta encontrar la instrucción que permita acceder a información sensible que alguien en algún momento haya subido a los chatbots de IA.
'Hacker' por inteligencia artificial
Otro experto, Emiliano Piscitelli, hace una revelación aún más preocupante.
El CEO de BeyGoo habla sobre los 'infostealers', una especie de software maliciosos que generalmente actúan al momento de instalar un crack de un videojuego o un programa en la computadora. Su único propósito: robar información.
"Usuarios, contraseñas, tarjetas de crédito, archivos en el escritorio, archivos en descarga. Todo lo que esté en la computadora sin que te des cuenta", explica Piscitelli.

¿El 'plot twist'? La IA puede ser usada para crear este tipo de programas. "Quizá no ChatGPT...aunque si por ahí le encontrás la vuelta, algo puede ser", dice Piscitelli.
"Hoy, por lo menos en lo que en Latinoamérica, yo me animaría a decir que no hay tanto uso de IA para ciberdelincuencia, como si lo hay, por ejemplo en Europa, en Norteamérica, pero no significa que no llegue".
Emiliano Piscitelli, CEO y fundador de BeyGoo
Este experto señala que el phishing ha evolucionado tanto que a esta altura no solo se roban y venden cuentas de redes sociales, sino también algoritmos o modelos de IA.
Piscitelli reconoce que los chatbots pueden ayudar a la productividad, pero señala que si se los usa en entornos laborales, es mejor recurrir a los provistos por la empresa.
Un futuro entre la desconfianza, la pérdida de privacidad y la desinformación
Ola Bini, conocida figura en la comunidad internacional de programadores, coincide con los demás expertos en que se debe estar atento con la información compartida con los chatbots, pero con una mirada más crítica.
"Ya robaron nuestra información para crear las IA y ahora están robando la información en el uso de IA", lanza Bini al señalar la manera en que empresas como OpenAI, Google, xAI o Anthropic generan ingresos.
Según este experto, la forma de operar de estas empresas no es muy diferente a la que se usa en las redes sociales: mediante la monetización de la información personal.

La preocupación más fuerte de Bini se dirige hacia otro lado.
Cree que una de las principales amenazas de la IA es la desinformación que surge a partir de los deepfake y la clonación de voz, que cada vez aumentan más en calidad.
"Creo que muy pronto vamos a necesitar educación para distinguir qué es verdad", es decir, "qué contenido es real, hecho por humanos", opina.
El programador sueco aprovecha para hacer una visión a futuro sobre los avances tecnológicos:
"Vamos a vivir en un contexto en el que necesites desconfiar de toda la información. Creo que necesitaremos utilizar firmas digitales para ser incluidos en videos o información real".
Ola Bini

Según el experto, los avances de la IA preocupan tanto que habrá una invasión muy grande contra la privacidad de los usuarios, y para protegernos "vamos a llegar a un punto donde vamos a sacrificar parte de la privacidad para evadir los problemas de contenido falso".
Respecto a la facilidad para crear deepfakes y voces clonadas, Bini argumenta que no es un problema de que las empresas no hagan caso a sus departamentos de ética, y no impongan mejores políticas de seguridad.
Bini dice, citando el Teorema de incompletitud de Gödel y el problema de Turing-Holting, que "siempre va a ser posible evadir estos tipos de medidas".
Finalmente, el experto mira por detrás de los programas que se usan, porque al momento es cada vez más usual que los desarrolladores usen IA para generar código.
"La inteligencia artificial está entrenada con código malo, porque no tienen muchos ejemplos [...] y con más defectos, más posibles fallas de seguridad también", explica.
Compartir: