Nota de prensa 30 juin 2025

Innerarity y Bustince subrayan que los datos no son neutrales y abogan por una regulación ética de la Inteligencia Artificial

Ambos pensadores y expertos han debatido sobre los principales retos éticos, sociales y políticos que plantea esta tecnología en un encuentro organizado en Iruñea por Irujo Etxea Elkartea y Sabino Arana Fundazioa

Innerarity y Bustince subrayan que los datos no son neutrales y abogan por una regulación ética de la Inteligencia Artificial Innerarity y Bustince subrayan que los datos no son neutrales y abogan por una regulación ética de la Inteligencia Artificial

Daniel Innerarity, catedrático de Filosofía Política, autor de ‘Una teoría crítica de la inteligencia artificial’, investigador y ensayista; y Humberto Bustince, catedrático de la Computación e Inteligencia Artificial, investigador, divulgador y docente, han analizado hoy los retos y oportunidades de la inteligencia artificial desde una perspectiva ética y humanista, en un diálogo abierto al público organizado por Irujo Etxea Elkartea y Sabino Arana Fundazioa, moderado por la comunicadora Aitana Duque.

El objetivo del encuentro, abierto al público, ha sido generar un espacio de reflexión crítica y multidisciplinar sobre el papel que la inteligencia artificial desempeña -y debe desempeñar- en nuestra sociedad. Desde la filosofía política y la ciencia computacional, Innerarity y Bustince han debatido sobre los principales retos éticos, sociales y políticos que plantea esta tecnología.

Una IA que simula, pero no comprende

Daniel Innerarity ha destacado la importancia de “clarificar conceptos” en el debate público sobre la IA. “Si en lugar de llamarla ‘inteligencia’ la hubiéramos denominado de otra forma, probablemente no estaríamos tan obsesionados con compararla con la inteligencia humana”, ha afirmado. “Lo que hacen las máquinas es procesar datos y generar correlaciones estadísticas, sin conciencia ni comprensión del contexto”, ha añadido. En este sentido, Innerarity ha diferenciado entre los problemas estructurados, en los que la IA puede destacar, y los problemas humanos donde se requiere interpretación, sentido y juicio. “Sin datos no hay soluciones, pero sin interpretación contextual, los datos tampoco bastan”, ha apuntado.

Por su parte, Humberto Bustince ha explicado que “la IA es una ciencia que desarrolla máquinas capaces de realizar tareas que, si las hiciera una persona, consideraríamos inteligentes”. “Sin embargo, estas máquinas funcionan de manera muy distinta al cerebro humano, que procesa millones de datos pero selecciona sólo aquellos relevantes, mientras que la IA requiere millones de ejemplos de una imagen de un perro para aprender, por ejemplo, a reconocer un perro”, ha expuesto. “La IA intenta simular a la inteligencia humana. Su referente es la Inteligencia Humana. Esto es fundamental. Y también lo es saber que la IA actualmente no considera la excepcionalidad o no predice la discontinuidad en la creatividad”, ha añadido.

Ética del dato, el papel de los Estados y la situación de Navarra

Ambos ponentes han reflexionado sobre la ética del dato, la necesidad de regular la Inteligencia Artificial, el papel de los Estados, y la situación de Navarra en este contexto. Innerarity ha apostado por una cogobernanza que combine regulación pública con la responsabilidad empresarial y criterios éticos, y ha abogado por una ética pública del dato. “La privacidad digital no debe entenderse como un derecho individual, sino como un bien colectivo cuya protección requiere decisiones políticas, y no solo individuales”. Según ha señalado el catedrático en Filosofía Política, “la gobernanza ética debe incluir la transparencia en cómo se recogen, procesan y aplican los datos; la rendición de cuentas por parte de quienes diseñan y operan sistemas algorítmicos, y la participación ciudadana en la toma de decisiones que afectan el uso de estas tecnologías”. “La ética del dato está íntimamente relacionada con el modelo de democracia que queremos. Delegar decisiones a sistemas opacos y automáticos puede debilitar la deliberación democrática. La tecnología debe estar al servicio de lo público, fomentando la inclusión, la reflexión y el pluralismo”, ha apuntado.

Por su parte, Humberto Bustince ha destacado que “los límites de la IA muchas veces no van a venir dados únicamente por la legislación, sino por el mantenimiento energético”. “Hablar del coste energético es fundamental. Crear un sistema similar de neuronas al que tiene el ser humano necesitaría un coste energético tan sumamente alto que es inviable”, ha expuesto. Asimismo, el Catedrático de la Computación ha mostrado su preocupación por que son necesarios “más recursos para la investigación, tanto básica como aplicada, en Navarra”. “En la actualidad, en Navarra hay empresas y personas con muchísimo talento, pero muchas de las iniciativas sobre IA son aplicativas, sin una base adaptada al contexto local”, ha advertido.

Por último, Innerarity ha afirmado que “la regulación de la Inteligencia Artificial no es una opción, sino una necesidad, y debe ir acompañada de pensamiento crítico, formación, y más inversión”. En la misma línea, Bustince ha insistido en que la IA necesita un control. “Imaginemos, por ejemplo, que figuras históricas autoritarias dispusieran hoy de estas herramientas. Ya existen drones y aviones autónomos que deciden objetivos sin intervención humana directa. Estamos manejando una herramienta que puede ser tanto lo mejor como lo peor para la humanidad”, ha concluido.