Sábado, 27 de abril de 2024

"La Inteligencia Artificial aún comete errores", advierte el presidente de Asociación de Internet de México

Autor:

Gabriela Coba

Actualizada:

10 Mar 2024 - 10:00

El desarrollo acelerado de la Inteligencia Artificial está cautivando al mundo. En entrevista con PRIMICIAS, Pablo Corona, presidente de la Asociación de Internet de México, habla sobre los retos y riesgos de esta tecnología.

Una cartel de Inteligencia Artificial en el stand de Deutsche Telekom AG en el Mobile World Congress, en Barcelona, el 27 de febrero de 2024.

Autor: Gabriela Coba

Actualizada:

10 Mar 2024 - 10:00

Una cartel de Inteligencia Artificial en el stand de Deutsche Telekom AG en el Mobile World Congress, en Barcelona, el 27 de febrero de 2024. - Foto: AFP

El desarrollo acelerado de la Inteligencia Artificial está cautivando al mundo. En entrevista con PRIMICIAS, Pablo Corona, presidente de la Asociación de Internet de México, habla sobre los retos y riesgos de esta tecnología.

La Inteligencia Artificial (IA) marcará el desarrollo tecnológico de 2024, según se evidenció en los dispositivos y funciones que presentaron grandes compañías del sector, como Huawei, Google y Microsoft, en el Mobile World Congress, realizado en Barcelona a finales de febrero de 2024.

Pese a ello, representantes de las compañías han afirmado que por ahora solo estamos viendo la punta del iceberg de esa tecnología, que permite a computadoras y máquinas simular la inteligencia humana y las capacidades de resolución de problemas.

"La Inteligencia Artificial es una tecnología emergente, por lo que aún comete muchos errores", advirtió Pablo Corona, experto en esa tecnología y presidente de la Asociación de Internet de México.

En entrevista con PRIMICIAS durante el Mobile World Congress, Corona habló sobre las áreas de mayor potencial para la IA, los retos que representa la tecnología y las implicaciones sociales de su desarrollo.

Durante el Mobile World Congress, personajes del área de la Inteligencia Artificial, como Brad Smith (presidente de Microsoft, uno de los grandes accionistas de OpenAI), han dicho que por ahora estamos viendo solo la punta del iceberg de la tecnología. ¿A qué se refieren?

Definitivamente, es la punta del iceberg. Debemos recordar que los algoritmos, los métodos, todos estos sistemas de inteligencia artificial que hoy usamos son tecnología que empezaron a crearse en los años 60.

¿Pero qué pasó en los últimos tres años? Básicamente, los algoritmos ya existían, los mecanismos y los conceptos ya existían. Lo que no había era la tecnología para montar esos sistemas, porque resultaba muy cara o era muy lenta. Pero, recientemente, cambiaron dos cosas.

La primera es que se hicieron muy rápidas las computadoras, se hizo muy rápido su capacidad de procesamiento. Sobre todo de los procesadores que se llaman GPUs, que nacieron como procesadores gráficos y que tienen capacidad de encontrar relación entre distancias vectoriales, entre números, de forma rápida.

Los GPUs se han abaratado, lo que generó accesibilidad al procesamiento.

El segundo cambio ha sido la una mayor capacidad de almacenamiento. El entrenamiento de un sistema de Inteligencia Artificial requiere mucho almacenamiento, el cual era caro.

Cada vez es más barato tener grandes capacidades de almacenamiento.

Con esos dos cambios se ha logrado acceder a almacenamiento de forma abierta y a precios accesibles.

¿Qué podemos esperar del futuro de la Inteligencia Artificial?

He visto muchas cosas que parecen más ciencia ficción, en donde las máquinas nos van a querer dominar, van a tomar el control, van a ser autoconscientes y van a querer dominar a los humanos. Me parece que eso es algo que está lejos y, es más, podemos evitar que suceda, si hacemos un desarrollo, un diseño y un entrenamiento responsable, con reglas establecidas desde ahora.

También se debe proveer mecanismos de monitoreo e interacción y, hasta en su momento, de desconexión de estas tecnologías.

Otras cosas que vienen serán la interacción y la integración con otras tecnologías. Algo que cada vez pasará cada vez más es la interacción entre la Inteligencia Artificial, la nanotecnología y la biotecnología.

La convergencia de las tres disciplinas se podrá usar en áreas como la de salud. Por ejemplo, se puede desarrollar nanorrobots que ingresen al cuerpo para reparar células u órganos dañados.

"Se podrán diagnosticar enfermedades o curarlas como el cáncer o la esclerosis múltiple".

¿Cuáles son otras oportunidades y retos de la aplicación de la Inteligencia Artificial en el mundo?

La Inteligencia Artificial es una de las tecnologías que más me emociona de los últimos años. Efectivamente, marca un parteaguas.

Empezamos a hablar fuertemente de Inteligencia Artificial en noviembre de 2022, cuando los grandes modelos de lenguaje se hicieron públicos y empezamos a tener una experiencia muy tangible con esa tecnología.

Antes había experimentos controlados, pero no tan fáciles de evidenciar.

Desde que existen los grandes modelos de lenguaje, que están abiertos al público en forma de chats, tenemos capacidades para generar conversaciones, fotografías y video.

"Es una gran oportunidad para generar contenido, para iniciar una conversación o mejorar el entendimiento de un proceso".

El logo de Open AI, compañía detrás del bot con inteligencia artificial ChatGPT, tras su aparición como app móvil, octubre de 2023.

El logo de Open AI, compañía detrás del bot con inteligencia artificial ChatGPT, tras su aparición como app móvil, octubre de 2023. AFP

¿Y cuáles son los retos?

La Inteligencia Artificial es una tecnología emergente, por lo que aún comete muchos errores, Por ejemplo, inventa referencias. Eso se debe a que trabaja de manera estadística, por lo que crea respuestas que se basan en las mayores probabilidades. Pero, lo más probable no siempre es la verdad.

Para un sistema, como la Inteligencia Artificial, algo que está muchas veces en la información con la que fue entrenada podría parecer una verdad.

El reto es filtrar esa información y hacer responsable a una persona, que es quien puede responder por una decisión, recomendación o publicación de información que no es certera.

"El reto de la Inteligencia Artificial es diferenciar qué información no es precisa, no está actualizada o es un invento".

¿Pero, qué implicaciones tiene la Inteligencia Artificial en la sociedad?

La Inteligencia Artificial está haciendo que los trabajos rutinarios, que aportan menor valor agregado, sean automatizados y hasta sustituidos.

Pero el reto que tendrán las personas y entender cómo no ser sustituidas, eso se puede lograr a través de una relación complementaria entre los humanos y las máquinas, a través de la cual se aprovecha las capacidades de la IA.

Un ejemplo es que la Inteligencia Artificial es capaz de procesar grandes cantidades de datos en poco tiempo. Por su parte, el ser humano puede encontrar diferencias, analizar, sintetizar temas que actualmente le cuestan a la IA.

Un visitante se toma un 'selfie' durante una cumbre sobre inteligencia artificial de la ONU, el 5 de julio de 2023.

Un visitante se toma un 'selfie' durante una cumbre sobre inteligencia artificial de la ONU, el 5 de julio de 2023.  FABRICE COFFRINI / AFP

La sustitución de algunos trabajadores por la Inteligencia Artificial es uno de los temas que preocupa. ¿Qué hacer para que no haya personas que se quedan atrás?

Desde hace años hemos hablado de la brecha digital, donde hay gente considerado no nativos digitales, porque no nacieron con la tecnología, o por su situación geográfica o social.

Esa realidad crea personas con distintas formas de interactuar, tecnológica y presencial. Eso no significa que las personas que no tienen habilidades tecnológicas sean peores, porque no todo se da a través de la interacción digital.

Las personas en esta brecha digital, pero que sepan cómo remediarla de la forma más rápida posible a través de educación y capacitaciones o trabajar en áreas complementarias, tendrán una ventaja.

Expertos en Inteligencia Artificial han prendido las alertas sobre las consecuencias del mal uso de esa tecnología. ¿Qué se debe hacer?

Definitivamente, hay que tomar una visión basada en riesgos. Y ese es el punto crítico. A veces hablamos de la Inteligencia Artificial como si fuera un aparato monolítico que toma sus propias decisiones. Y la verdad es que no.

Tenemos muchos algoritmos, muchos sistemas basados en Inteligencia Artificial, algunos para desarrollar, para entrenar o para realizar una tarea específica como un sistema experto.

En ese contexto, es importante considerar que no todos los riesgos son iguales. Por lo tanto, se necesita alguna regulación y control, pero con base en los riesgos.

Por ejemplo, una piedra o un cuchillo pueden ser usados como armas, pero no tienen regulaciones. ¿Por qué? Debido puede causar daño una persona a la vez, no son masivas.

Entonces, necesitamos tener una revisión del riesgo para saber a cuántas personas puede impactar la Inteligencia Artificial o cuáles son las consecuencias que genera su uso.