Entorno

Carlos L. Ariztegui: “Aún no sabemos cómo hacer que una IA funcione como la mente humana”

Ingeniero de telecomunicaciones, formado en el MIT y con experiencia en compañías como Apple o Nokia, el vicedecano de Esic huye del catastrofismo que envuelve a la inteligencia artificial.                               

Carlos L. Ariztegui: “Aún no sabemos cómo hacer que una IA funcione como la mente humana”
Carlos L. Ariztegui: “Aún no sabemos cómo hacer que una IA funcione como la mente humana”
Carlos López es director de programas de márketing y tecnología y profesor de estrategia, transformación digital e inteligencia artificial en Esic.

Marta Tamayo

27 nov 2023 - 05:00

La inteligencia artificial (IA) llegará a todas las empresas, aunque no se den ni cuenta. Así lo asegura Carlos López Ariztegui, ingeniero de telecomunicaciones especializado en el uso de la IA en empresas por el MIT Sloan School of Management y, actualmente, vicedecano de la escuela de negocios Esic. Ariztegui, que ha desarrollado su carrera en compañías como Apple o Nokia, señala que la IA va a ayudar a las empresas a mejorar la productividad, como la extensión del Internet y la ofimática lo hizo hace unas décadas, pero todavía está lejos de llegar a emular la inteligencia humana. 

 

 

Pregunta: Esta semana han saltado a los titulares movimientos en la cúpula de OpenAI, creadora de Chay GPT y el viernes Reuters informó que la compañía maneja una nueva herramienta “que puede acabar con la humanidad”. ¿Hay que temer a la IA?

 

Respuesta: En la IA pasa como en todo, que lo llevamos al extremo, y nos encontramos con negacionistas y con catastrofistas. Pero tenemos que tener claro qué es la IA: un sistema que, por muy avanzado que nos parezca, entrena con datos y hace aproximaciones. No dejan de ser unas estimaciones estadísticas. ChatGPT ha sido entrenado con una infinidad de textos, de forma que una persona normal no podría, necesitaría 20.000 años. Ahí nos ganan las máquinas, pero cuando le sometes a preguntas que hay que aplicar lógica se equivoca porque no está entrenada para razonar. Todavía no sabemos cómo hacer que una IA funcione como la mente humana, pero escuchamos muchas previsiones catastrofistas que rozan la ciencia ficción. 

 

 

P.: ¿Dentro de diez años tampoco lo sabremos? 

 

R.: Cuando hablamos de la inteligencia, es porque tenemos la capacidad de utilizar nuestros sentidos para conocer el mundo que nos rodea. El sistema nervioso del ser humano es un resultado de millones de años de evolución que ha permitido que surja la conciencia. Es este proceso, que nos lleva a pensamientos y generar abstracciones y un mundo de símbolos lo que caracteriza la inteligencia, y no se sabe cómo hacerlo como una máquina. Una IA, hoy en día, no deja de ser con software y un ordenador, por muy avanzado que sea. En un cerebro humano no hay bits ni unos ni ceros, hay bioquímica y, aunque tenemos cierta comprensión, no la entendemos aún de manera concreta. Replicar el cerebro humano sin saber cómo funciona con un método que no tiene nada que ver es algo muy complicado de hacer.  Nos va ayudar en la productividad, pero no son tan inteligentes. 

 

 

P.: Descartando el fin de la humanidad, ¿qué riesgos presentan las IA?

 

R.: Hay riesgos con aplicaciones bastante tontas. Hay algoritmos que reflejan percepciones segadas y pueden denegarle un crédito a alguien por ser negro. Sin embargo, la responsabilidad final es de las empresas que no protegen bien la información de sus clientes, lo que puede motivar muchas crisis reputacionales. 

 

 

 

 

P.: ¿Están las empresas españolas preparadas para incorporar la IA? 

 

R.: Las grandes empresas y las pequeñas se mueven a velocidades muy distintas. Por ejemplo, grandes compañías de seguro están utilizando datos desde hace mucho tiempo análisis de datos y utilizan sistemas de predicción, los llamados machine learning. Es IA que se está utilizando hoy en día y de forma transparente. Un algoritmo que mira tu perfil de riesgo, gastos, capacidad de ahorro, ingresos etc. y traza un presupuesto. En el caso de las pymes, aquellas que usan y generan datos utilizan sistemas y plataformas tipo CRM que tienen integradas funciones de analítica avanzada y predicciones, no es IA, pero la gestión de datos ya está penetrando en este tipo de empresas.

 

 

P.: ¿Este uso de la IA va a aumentar en las empresas?

 

R.: Depende de la necesidad que tenga de manejar datos. Si no gestionas grandes cantidades de datos puedes usar tu propia inteligencia y un Excel. Si usas procesos más avanzados es probable que te metas sin saberlo en herramientas de datos, cosas que llamamos IA, pero que no son tan avanzadas. En diez años se va a utilizar mucho más y se integrará en aplicaciones que usamos hoy en día, cada vez sacaremos más partido. 

 

 

P.: ¿Los profesionales y las empresas muestran interés por formarse en IA? 

 

R.: Hay mucho interés en las empresas en formarse en IA, en la avanzada y, sobre todo, en la no tan avanzada. El primer paso es el llamado machine learning y hay mucha demanda. Es como el Excel del futuro: todo el mundo lo tiene que saber, de manera manual o semiautomática. 

 

 

P.: Más allá del autocontrol de las empresas, ¿qué ha de regular el sector público? 

 

R.: Si bien las administraciones tienden a sobrerregular, la ausencia suele ser mala. Aunque antes de ponerte a regular hay que entender el impacto que tienen. El papel que juega la Unión Europea en este aspecto es positivo, porque está tratando que las empresas se conciencien mientras pone freno en algunos aspectos como identificar personas por vídeo por la calle. La regulación aporta también recomendaciones de uso que pueden ser útiles a las empresas y a los usuarios, que tengan claros los dilemas éticos que conlleva.