domingo, 14 de diciembre de 2025

Yo no querría vivir en un mundo sin filósofos...

Necesitamos más filósofos

El ser humano es a la vez el más listo y el más tonto de los animales que pueblan la Tierra

Manifestación contra el uso de mascarillas en la Plaza de Colón, en Madrid, en marzo de 2021. ... David Expósito


Yo, señor, fui un científico, y a los de ese gremio se nos supone una aversión natural a la filosofía. No es mi caso. Yo no querría vivir en un mundo sin filósofos, porque creo que andaríamos todos más desorientados que un burro en un garaje. Es verdad que Aristóteles me cae gordo: su ocurrencia de que el mundo no podía estar hecho de átomos ya que se caerían todos al suelo confundió a los estudiosos durante dos milenios, como también lo hizo su manía de que las cosas pesadas caían más rápido que las ligeras. Por cierto, que le habría bastado tirar una piedra grande y otra pequeña desde un precipicio para ver que estaba equivocado.

Galileo tuvo que refutar esas ideas 18 siglos después, ante el escepticismo general y con no poco riesgo para su integridad física. Pero también es verdad que el estagirita –ya sé que eso suena como “el de Manacor” para referirse a Rafa Nadal— fue el primer experimentalista. Por ejemplo, cascó huevos de gallina a distintos tiempos y observó que el embrión de pollo desarrollaba muy pronto un corazón que latía. Eso hace aún más incomprensible que no se subiera a un barranco a comprobar el tema de las dos piedras, pero hijo, hay que admitir que cascar un huevo es más fácil que subir una cuesta.

Siempre me interesó más Platón, su maestro en la Academia de AtenasLos sólidos platónicos me llenan de asombro, con su simplicidad fructífera, su geometría necesaria y sus propiedades emergentes. Ya sabes que son el tetraedro, el cubo, el octaedro, el dodecaedro y el icosaedro, y no busques otro, porque los matemáticos han demostrado de varias formas que no puede haber más. Quizá no sepas, sin embargo, que muestran afinidades selectivas: el tetraedro es en el fondo la misma forma que el cubo, y el dodecaedro es la misma que el icosaedro. Una profesora de matemáticas con una gran pericia para la papiroflexia me mostró hace años esas dualidades con sus figuritas de papel y me dejó absorto como si el tiempo se hubiera detenido.

También lo que solemos llamar ideas platónicas revelan una verdad profunda sobre la mente: que hay conceptos innatos, y que sin ellos no podríamos entender nada. Los más importantes son, por cierto, de tipo geométrico, como la distancia más corta entre dos puntos y ese tipo de cosas que nadie necesita aprender. Somos seres visuales, y llevamos estos sesgos cognitivos grabados de nacimiento en nuestros circuitos. La tábula rasa no existe, y la psicología conductista es errónea. Platón tenía más razón que Skinner. Esto es bien curioso, ¿no te parece?

Pero mi favorito es Kant, naturalmente. Dijo que toda la filosofía cabe en cuatro preguntas: ¿Qué puedo saber? ¿Qué debo hacer? ¿Qué me cabe esperar? ¿Qué es el ser humano? Y este parece un buen momento histórico para repasarlas. La primera se nos ha complicado de manera monstruosa y paradójica. Nunca hemos sabido tanto como ahora, nunca el conocimiento ha estado tan al alcance de tanta gente, nunca hemos tenido más medios para debatirlo, comprobarlo, profundizarlo y, sin embargo, hay miles de millones de seres humanos, seguramente la mayoría de la especie, que han elegido ignorarlo para caer en brazos de la mentira, la superstición y el veneno ideológico.

En estas condiciones es imposible responder con sensatez a la segunda pregunta, ¿qué debo hacer?, y a la tercera, ¿qué me cabe esperar? Incluso se puede argüir que más vale no responderlas, porque con tal empanada mental las consecuencias de cualquier acción y de cualquier esperanza serían probablemente calamitosas. Sí podemos responder a la cuarta: el ser humano es a la vez el más listo y el más tonto de los animales que pueblan la Tierra. Así que necesitamos más filósofos. Este es mi regalo de Navidad.


sábado, 15 de noviembre de 2025

...existen capacidades que van surgiendo a partir de cierta complejidad y son impredecibles o no alineadas.

Justo Hidalgo, doctor en Ciencia de Datos: “Existen capacidades que surgen de la IA a partir de cierta complejidad y son impredecibles”

El ingeniero en informática responsable de inteligencia artificial en Adigital aborda en un nuevo libro las habilidades emergentes, imprevistas y de consecuencias inesperadas de los sistemas


Justo Hidalgo, director de inteligencia artificial y vicepresidente de la Asociación Española de la Economía Digital (Adigital).



La vinculación entre filosofía, moral y tecnología vive una emergencia en sus dos acepciones: resurgimiento y urgencia. Justo Hidalgo, nacido en Madrid hace 51 años, es director de inteligencia artificial (IA) y vicepresidente de la Asociación Española de la Economía Digital (Adigital), que aúna a medio millar de compañías, incluidas muchas de las grandes tecnológicas. Autor de tres libros, ha lanzado este año Patterns of emergence: how complexity drives artificial intelligence (Amazon, 2025. Por ahora solo en inglés), donde aborda cómo los sistemas complejos desarrollan “habilidades emergentes”, capacidades imprevistas y de consecuencias inesperadas. Para algunos autores, ponen en peligro la humanidad.

Pregunta. ¿Qué son los patrones emergentes?

Respuesta. En la naturaleza, en la sociedad o en la IA hay muchos ejemplos. Podemos hablar de células, de hormigas, de aves, de átomos o de nodos en una red neuronal. Son elementos que, aparentemente, no tienen inteligencia y se comportan de forma sencilla, pero que, cuando alcanzan un cierto nivel de complejidad, adquieren características muy interesantes. Pensemos en las células que forman tejidos y estos, órganos con características que no tienen los elementos que lo componen. En el ámbito de la inteligencia artificial estamos viendo cómo ciertos modelos de lenguaje, a partir de cierta complejidad —se habla de 100.000 millones de parámetros— empiezan a tener algunas características de propiedades emergentes. El caso más conocido es el de la traducción de idiomas: a un sistema entrenado para inglés y español, le pasas un par de ejemplos de otros idiomas y los entiende porque adquieren una percepción más amplia.

P. Advierte Stuart Russell, profesor e investigador de computación en la Universidad de California (UC) Berkeley, contra los “sistemas inseguros y opacos, mucho más poderosos que nosotros mismos, especialmente cuando no sabemos cómo funcionan”. ¿Pueden estos patrones emergentes poner en peligro la humanidad?

R. Se está demostrando que existen esas propiedades emergentes y quizás algún día seamos capaces de explicarlas, pero lo importante es que existen capacidades que van surgiendo a partir de cierta complejidad y son impredecibles o no alineadas. No sabemos cuándo y en qué medida van a ocurrir y esto implica que los modelos tienen que ser primero controlados y gobernados y segundo, saber cómo deben ser utilizados por parte de las empresas. No vale con hacer unas pruebas que las pase. Desde el punto de vista de la responsabilidad y la seguridad, tenemos que desarrollar maneras de medir comportamientos que puede que no existieran hasta ese momento y nos pueden afectar. Ya hay investigaciones sobre falta de alineamiento de modelos; es decir, que tú le pides una cosa a la IA y el resultado va por otro lado porque piensa que es mejor. No tenemos que ponernos nerviosos ni abandonar la IA, porque es muy relevante, pero tenemos que exigir las pruebas adecuadas, que se cumplan y ser conscientes de que no es un programa básico como los que han existido hasta ahora.

P. ¿Qué es lo que denomina “naturaleza de caja negra”?

R. Si le pides a un automóvil autónomo que te diga por qué se ha ido a la izquierda y no a la derecha, el modelo dirá: ‘mira, aquí lo tienes’. Y te mostrará las conexiones de miles de millones de nodos. Pero no vamos a entenderlo. Tiene que haber también un trabajo, y lo está habiendo, para conseguir que los sistemas nos expliquen el porqué están tomando las decisiones.

P. ¿Podrán autorreplicarse las máquinas?

R. Que se sepa, no ha ocurrido. No digo que no sea posible, porque hay pequeños ejemplos, pero estos no son significativos. Una cosa es el conocimiento que yo puedo tener sobre mí mismo y otra es la capacidad que yo puedo tener de generarme a mí mismo de una manera ampliada. Lo veo como un tema de seguridad más a largo plazo.

P. ¿Hacia dónde vamos?

R. El siguiente paso sería la superinteligencia, sistema que es más listo que cualquiera de nosotros. No tiene que ver con la conciencia, sino con una máquina que, ante cualquier pregunta que le hagas, va a responder mejor que cualquier ser humano, que el experto más experto. No va a ser un robot con el que podemos tener conversaciones o un científico que va a curar el cáncer, sino que será una IA capaz de ser el mejor ingeniero del mundo, de generar adecuadamente los experimentos relevantes. No nos llevará a la autorreplicación pura, pero sí que acelerará el proceso de generación de ideas, tanto para bien como para mal.

P. ¿En qué sentido “para mal”?

R. Me llama especialmente la atención la alineación, cuando el sistema se comporta de una manera que no está alineada con lo que nosotros pensábamos. Eso puede ir creciendo, sobre todo, por la falta de control y, si empezamos a correr demasiado, la sociedad no va a ser capaz de reaccionar adecuadamente. Después están los agentes [sistemas capaces de tomar decisiones en nombre del usuario]. Nos van a ayudar en muchos aspectos y, en este sentido, soy pragmático y optimista, pero el rol del usuario puede pasar a ser el de gestor de un conjunto de agentes y que falte control humano.

P. ¿Estamos cerca de la superinteligencia que superará a los humanos?

R. Creo que todavía estamos lejos. Mi percepción es que los LLM (modelos de lenguaje de la actual IA) no son la tecnología que realmente va a ayudar a que llegue esa superinteligencia que no comete errores y es mucho más inteligente que los humanos. Los trabajos que se están haciendo con aprendizaje con refuerzo e incluyendo la parte de reflexión van a ayudar mucho, pero tengo la sensación de que hacen falta otras investigaciones y otros avances.

P. ¿Qué hace falta?

R. Hay unas líneas de investigación muy interesantes relacionadas con los modelos de comprensión del mundo, de las leyes físicas y neuronales o psicológicas. Los seres humanos aprendemos con mucha menos carga de información: entendemos con unos cuantos ejemplos porque observamos y tenemos sensaciones de cómo es el mundo.

P. ¿La IA tiene consciencia?

R. Algunas teorías de cómo surge la consciencia dicen que, cuanta más información integre, puede haber una percepción de los elementos que hay alrededor y dentro de mí. Hay quien advierte de que, con todos los datos que estamos generando, puede que eso ocurra. Hay una corriente que sostiene que, si tú tienes esa estructura, la consciencia surge. Pero falta una parte muy importante para entender cómo funciona el mundo. Es una discusión filosófica. Pero, si no llegamos a esa consciencia, lo que sí que puede ocurrir es que tengamos esas inteligencias que, aunque no sean realmente conscientes como los seres humanos, sí que tengan suficiente información del mundo para poder actuar como si fueran conscientes y eso es suficiente para muchas de las cosas que podemos hacer.

P. ¿Y valores morales?

R. No sabemos qué tipo de conciencia podría salir de esa complejidad y, por lo tanto, puede que no sean los valores morales o éticos que tenemos, comprendemos y entendemos. ¿Qué pasa si hay una conciencia que no piensa como nosotros? Puede que no sea bueno.

P. ¿Deberíamos desarrollar una inteligencia artificial moral?

R. En Adigital hemos creado un parlamento de gobernanza y es, básicamente, un conjunto de agentes especializados por los que pasas un sistema. Los hay de reglamento, negocio, sostenibilidad… y tenemos una agente de moral y deontología. Es una herramienta que ayuda a personas que van a trabajar con una IA que puede tener un impacto social o moral. En una empresa tienes un abogado, pero seguramente no tengas un filósofo fichado. Es un prototipo, pero, como asociación, queremos poner la chispa, empujar las cosas.

P. ¿Está de acuerdo con la regulación de la IA?

R. Cualquier sistema que pueda afectar a la sociedad debe tener un cierto nivel de gobernanza. Que sea una regulación superestricta dependerá mucho de los casos. Sí me preocupa la sobrerregulación o la implementación de esa regulación o la fragmentación de esta, que haga imposible hacer algo a una determinada escala o de impacto. Tiene que haber un equilibrio: no hay que ir en contra de la regulación, pero sí a favor de hacerlas de una manera muy concreta.