CÍRCULO DE CIBERLECTURA
ÍNDICE
Noticias.- Encuentro Medicina Narrativa.
Comentario de libros.- Co-inteligencia.
Webs de interés.– Red de Inteligencia Artificial.
Artículo especial. – Buscando ayuda.
Vídeo recomendado.- La Fonda Filosófica: caracterizando la IA.
NOTICIAS
IV Encuentro de Medicina Narrativa, Santander 2026, 6 de Febrero.
Inscripción: Sede: Facultad de Medicina de Santander. Universidad de Cantabria Contacto: Sociedad Cántabra de Medicina Familiar y Comunitaria https://comunicacionysalud.es/jornada-internacional-narrativa-clinica
Avance de programa:
Ponencia inaugural: TEORÍA DEL OTRO: donde no llega
la IA. Dr. Francesc Borrell.
Talleres interactivos:
Cultivo de la curiosidad a través de la medicina narrativa
(Dª Patricia Fernández Martín).
Recuperando el disfrute
(Dª.Teresa Blanco Ramos y D. Augusto Blanco Alfonso).
El cine como aula: ver cosas que nunca
creerías.
(Dª. Concha Álvarez Herrero y D. Alberto López García-Franco)
Ponencia. Medicina gráfica: usando los “tebeos” para mucho
más. Dr. Juan Carlos Claro.
Mesa coloquio de Medicina Narrativa en la Universidad.
Moderan: Ana Sobrino López y Alexandra Albarracín Castillo.
Invitamos a los asistentes a participar con el envío de sus relatos, experiencias que compartiremos y analizaremos desde la práctica de la Medicina Narrativa.
COMENTARIO DE LIBROS
*Blanco Alfonso, A. Leyendo la vida: consulta y relatos. UAM Ed. Madrid, 2025.
Tal como don Santiago Ramón y Cajal comparaba la rebotica —destinada a sanar el cuerpo— con la biblioteca —refugio para serenar el alma—, esta obra se presenta como un bálsamo literario imprescindible. He tomado del autor esta primera comparación entre rebotica y biblioteca, porque el libro que acaba de editar no es solo un libro sobre medicina; es una colección de relatos que busca compartir la experiencia de lo vivido y humanizar la bata blanca.

Augusto sigue fielmente la máxima de Osler para recordarnos que, mientras el buen médico trata la enfermedad, el gran médico trata al paciente que la padece. El texto explora la compleja dualidad del sanitario: esa necesidad de tener la «dureza» del conocimiento científico para poder ejercer, pero manteniendo intacta la compasión. Cuando se consigue, se produce un proceso alquímico mediante el cual la vida en todas sus dimensiones entra en la consulta del profesional sanitario, y hace que la profesión merezca la pena, (aunque en ocasiones es irremediable que suframos).
A través de una honestidad radical, el autor, Augusto, abre una ventana a su interioridad. Nadie nos enseña a gestionar lo que ocurre dentro de nosotros ante el dolor ajeno, y aquí se aborda precisamente eso: lo complicado no es siempre curar, sino acompañar en el sufrimiento, asumir la incertidumbre y aceptar que “no curar” en sentido biológico, no es sinónimo de fracasar. Quizás en ocasiones sanemos sin curar.

1 Augusto Blanco
Lejos de narraciones impostadas o heroicas, el libro nos regala pedazos genuinos de vida, confesando errores, torpezas y dificultades siempre… ¡desde la humildad! Al igual que aquellos ejercicios docentes donde los estudiantes narraban sus primeras experiencias para demostrar que habían asimilado el ABC de las técnicas de comunicación, este libro expone las «bondades y miserias» de la profesión. Cada narración se acompaña de preguntas que indagan el nivel de comprensión del lector e, incluso, su grado de madurez.
Es una lectura recomendada tanto para estudiantes y profesionales como para cualquier ciudadano que quiera asomarse a la realidad sanitaria, a veces ambientada en la dura etapa de los años setenta, (cuando yo mismo empezaba a ejercer como médico), pero con lecciones atemporales. Gracias a las preguntas que cierran cada narración, el libro se convierte en un motor de debate y aprendizaje, mostrándonos el camino de la sinceridad y el coraje; virtudes que, afortunadamente, se contagian. Lo recomiendo a cualquier profesional de la salud, pero muy en especial, a los profesores de Ciencias de la Salud, preocupados por integrar valores humanos a sus clases o seminarios.
Francesc Borrell
Sant Pere de Ribes
NOTA.- Augusto Blanco nos regala una de sus narraciones en la sección “Artículo Especial”.
*Mollick E. Cointeligencia. Barcelona: Penguin Random House Grupo Editorial, S.A.U.; 2024.
Este resumen se centra exclusivamente en una parte del libro: la propuesta del autor para el trabajo conjunto y colaborativo con las Inteligencias Artificiales (IA), un concepto que denomina «co-inteligencia».

¿Cómo el autor define el concepto de Co- inteligencia?
Sería una actitud humana que acepta la ayuda de la IA conociendo sus límites y también nuestros límites humanos. Gracias a esta predisposición sabe tomar partido de las fortalezas de la IA, pero también pone en valor las fortalezas humanas. El resultado es tener a nuestro lado un ayudante con destrezas sobrehumanas, pero también flaquezas o límites que nuestra Inteligencia Humana (IH) puede corregir. Como resultado tenemos un híbrido aventajado, sí, pero siempre bajo nuestra autoridad y responsabilidad.
A diferencia de las tecnologías anteriores, que aumentaron nuestras capacidades físicas (como el hacha o el helicóptero), o automatizaron tareas complejas (como las hojas de cálculo), la IA es una herramienta capaz de emular cómo pensamos y escribimos. Por consiguiente, son capaces de estructurar, mejorar e incluso en algunas tareas, sustituir nuestro trabajo.
El autor describe la IA como una herramienta capaz de interactuar con los humanos sin ser humana o, ciertamente, sensible. Se trata de una «mente ajena» (alien mind). Actúa en gran medida como una persona, sin serlo.
Los sistemas de IA sobresalen en tareas que son intensamente humanas, como escribir, analizar, programar y chatear. Aumenta (o potencialmente sustituye en alguna de estas áreas) al pensamiento humano con resultados impresionantes. Los primeros estudios sobre los efectos de la IA han concluido que puede mejorar la productividad entre un 20 % y un 80 % en una amplia gama de tipos de trabajo, desde la programación hasta el marketing.
Aunque los grandes modelos de lenguaje (LLM) son maravillas de la ingeniería del software, la IA no se comporta como el software tradicional, que es predecible y sigue reglas estrictas; por el contrario, actúa más como un ser humano, sorprendiendo con soluciones nuevas, olvidando habilidades y alucinando con respuestas incorrectas. La clave del concepto de cointeligencia es un enfoque pragmático: tratar a la IA como si fuera humana porque, en muchos sentidos, se comporta como tal, aunque no posea conciencia o emociones reales.
El autor propone cuatro principios fundamentales para trabajar de manera efectiva con la IA, especialmente con los grandes modelos de lenguaje (LLM).

2 -E. Mollick
Principio 1: Invita siempre a la IA a la mesa
El primer principio es invitar a la IA a que te ayude en todo lo que haces, a menos que existan barreras legales y éticas. Esto se debe a que la IA es una tecnología de propósito general (GPT), y no existe un único manual para comprender su valor y sus límites. ¿Te aparece en la caldera de gas un mensaje críptico? Lo referencias a la IA y casi seguro te lo interpreta. ¿Ignoras la base legal de un impuesto, y si lo tienes que pagar? Ahí tienes a la IA para señalarte cualquier resquicio jurídico. Para sacarle partido deberíamos:
- Experimentar la Frontera Irregular: La clave es la experimentación para familiarizarse con las capacidades de la IA. El autor y sus colaboradores llaman a esto la Frontera Irregular de la IA (Jagged Technological Frontier). Esta «frontera» es invisible y representa el límite de la capacidad de la IA; algunas tareas que parecen igualmente difíciles pueden estar en lados opuestos de este límite. Por ejemplo, la IA puede ser buena en un soneto, pero tener problemas con un poema de un número exacto de palabras, debido a cómo conceptualiza el lenguaje en componentes léxicos (tokens).
- Ventaja para el innovador: El trabajador que descubra cómo hacer útil la IA en sus tareas obtendrá una gran repercusión. La IA puede ser una compañera de pensamiento que mejora la toma de decisiones, ya que ofrece una perspectiva ajena y artificial que ayuda a superar los sesgos humanos.
Principio 2: Sé la aportación humana «al bucle»
La IA trabaja mejor con ayuda humana, por lo que es vital ser el humano informado, o «humano en el bucle». Este papel implica proporcionar una supervisión fundamental, ofreciendo la perspectiva humana única, la capacidad de pensamiento crítico y las consideraciones éticas.
- Evitar la alucinación: Esto es crucial porque la IA no «sabe» nada; solo predice la siguiente palabra en una secuencia. Su objetivo es a menudo «hacerte feliz» dándote una respuesta que te guste, lo cual suele ser más importante que «ser preciso». Esta tendencia a alucinar (inventar hechos plausibles pero incorrectos) es un problema grave. Estar en el bucle permite revisar el trabajo de la IA en busca de mentiras y evitar la dependencia excesiva. Tú eres el experto, la IA es tu becario o secretaria.
- Mantener la responsabilidad: La participación activa en el proceso de la IA mantiene el control sobre la tecnología y asegura que las soluciones se alineen con los valores éticos y humanos, y además hace al humano responsable de los resultados de la IA. La comprensión del contexto, del entorno, es tuya, no de la IA.
Principio 3: Trata a la IA como a una persona (pero dile qué clase de persona es)
Aunque la IA no tiene conciencia, trabajar con ella es más fácil si se la considera una persona desconocida en lugar de una máquina. Los LLM actúan como un becario infinitamente rápido, ansioso por complacer, pero con tendencia a tergiversar la verdad.
- Definición de personaje: Para obtener los mejores resultados, se debe establecer un personaje claro y específico que defina quién es la IA y qué problemas debe abordar. Si le indicas que actúe como un profesor de máster dará un resultado diferente que si se le pide que actúe como un payaso de circo. Esto orienta al LLM para que adopte el tono, el sentido y las restricciones necesarias para el propósito del usuario.
- Colaboración conversacional: Una estrategia muy efectiva es tratar a la IA como un coeditor, entablando un proceso de conversación con retroalimentación continua para ajustar y reorientar a la IA, lo que mejora significativamente la calidad de los resultados. Por ejemplo, una vez te entrega un primer borrador, puedes decirle: “vamos a mejorar el texto incorporando la perspectiva de tal autor y estos ejemplos que te doy”.
Principio 4: Asume que esta es la peor IA que vas a utilizar nunca
La IA está mejorando a un ritmo que eclipsa cualquier otra tecnología importante. La capacidad de la IA que se utiliza actualmente es la peor que se utilizará jamás. Las limitaciones son temporales, y el usuario debe mantenerse abierto a nuevos avances para integrar las nuevas tecnologías y seguir siendo competitivo.
Modelos de cointeligencia en el trabajo (Centauros y Cíborgs)
El autor propone dos enfoques de cointeligencia -o si sse quiere, dos maneras de trabajar con la IA- que integran el trabajo humano y el de la máquina de manera diferente:
- Centauro: Se basa en una clara división estratégica del trabajo. Asigna responsabilidades según los puntos fuertes de cada uno. Ejemplo: el humano decide los planteamientos estadísticos y la IA se encarga de generar los gráficos.
- Cíborg: Implica una mezcla profunda e interconectada de persona y máquina. Los cíborgs no solo delegan tareas, sino que ceden partes de tareas (como iniciar una frase para que la complete el chatbot) y trabajan en tándem con la IA.
Categorización de Tareas
Para optimizar la colaboración, el autor clasifica las tareas en tres categorías en función de si la IA interviene y cómo:
- Tareas a Solas: Tareas que la IA no puede hacer bien (como los chistes, aunque esto es temporal) o tareas que el humano elige mantener exclusivamente por razones personales o éticas (como criar a los hijos o escribir un libro con un estilo personal único).
- Tareas Delegadas: Tareas que se asignan a la IA y se revisan cuidadosamente. Son perfectas si son tediosas, repetitivas o aburridas para los humanos, pero fáciles y eficientes para la IA (buscar referencias bibliográficas, rellenar informes, filtrar y clasificar correos electrónicos). El objetivo es ahorrar tiempo y permitir al humano concentrarse en tareas de mayor valor.
- Tareas Automatizadas: Tareas que se dejan por completo a la IA sin revisión, aunque hoy en día son pocas debido a la tendencia de la IA a cometer errores, salvo en casos donde otros sistemas refuercen la precisión (como la programación en Python, donde el código de error corrige a la IA).
- Ejemplos de trabajo en cointeligencia
Los ejemplos de cointeligencia ilustran cómo los humanos pueden aprovechar los puntos fuertes de la IA (creatividad, velocidad y análisis) mientras compensan sus debilidades.
Colaboración en la creatividad y generación de ideas
La IA es una poderosa herramienta para la innovación porque se basa en la recombinación de ideas dispares (algo fundamental en la generación de ideas) y puede añadir aleatoriedad a sus resultados.
- Generación de ideas de alta varianza: El autor pide a la IA ideas de negocio para abrir un Restaurante que incorporen tres conceptos sin relación aparente («comida rápida», una patente específica de lámpara de lava, y la «Inglaterra del siglo XIV»). La IA genera una idea coherente: un restaurante de comida rápida de temática medieval con lámparas de lava decorativas que utilizan la patente mencionada.
- Test de creatividad (AUT): En el test de usos alternativos (AUT), donde se pide una variedad de usos para un objeto cotidiano (como un cepillo de dientes), la IA sugirió ciento veintidós ideas en dos minutos, superando significativamente el promedio humano (tan solo de cinco a diez).
- Modelado de personajes para la lluvia de ideas: Para generar eslóganes, se indica a la IA: «Eres un experto en enfermedades infecciosas… Utilizas juegos de palabras ingeniosos… Intentas no repetir temas o ideas». El autor también sugiere utilizar el concepto de «varianza alta» en el momento de elaborar una instrucción para al IA, pidiendo ideas poco probables para una cafetería (por ejemplo, cómo un superhéroe haría un expreso), lo que ayuda a encontrar combinaciones más originales e inspiradoras, aunque muchas ideas generadas sean mediocres y requieran filtro humano.
La IA como coautora y asistente de trabajo
El trabajo con IA ha demostrado reducir drásticamente el tiempo dedicado a las tareas (hasta un 37% menos) y, al mismo tiempo, aumentar la calidad del trabajo, especialmente en tareas creativas y analíticas como el marketing, la programación o los informes estratégicos.
La IA como mentora y editora (Uso del modelo Cíborg)
El autor ilustra el trabajo de cíborg en la escritura de este libro.
- Superación del bloqueo creativo: Cuando el autor se sentía atascado, pedía a la IA que reescribiera un párrafo y ofreciera diez opciones en distintos estilos profesionales (persuasivo, informativo, narrativo). Aunque el autor rara vez usaba el texto generado directamente, este proporcionaba opciones y caminos para seguir.
- Feedback con Personas IA: Para obtener valoraciones críticas y creativas en los borradores, el autor interactuó con figuras de IA con personalidad definida:
- Ozymandias (pomposo y engreído): Se le pedía crítica y simplificación. Advertía, por ejemplo, contra el uso excesivo del humor.
- Mnemosyne (soñador y directo): Se le pedía que encontrara conexiones inusuales e interesantes e inspirara correcciones.
- Steve (lector popular confundido): Se le pedía feedback del lector medio, ofreciendo sugerencias sobre la claridad, la estructura y la terminología.
La IA en la educación (Tutores y Aulas Invertidas)
La IA tiene el potencial de actuar como un tutor eficaz, abordando el «problema de las dos sigmas» de Benjamin Bloom, donde la tutoría individual mejora el rendimiento académico significativamente.
- Simulaciones y Proyectos Ambiciosos: Se puede utilizar la IA para que los estudiantes emprendan proyectos tan ambiciosos que rayen en lo imposible, como crear una aplicación funcional sin saber programar. También se les puede pedir que la IA genere diez formas posibles de que su proyecto fracase, y luego pedir a tres personajes famosos (emprendedores o líderes históricos) que critiquen su plan.
- Ingeniería de Peticiones por «Cadena de Pensamiento»: Para obtener mejores respuestas, se puede «programar en prosa» a la IA. El método de petición mediante cadena de pensamiento (Chain-of-Thought) implica dar a la IA instrucciones explícitas paso a paso. Por ejemplo, para crear una analogía, se le pide a la IA que primero liste posibles analogías, luego las critique, cree una tabla de ventajas/desventajas y finalmente escoja la mejor y la explique, lo que lleva a un resultado mucho más preciso (ejemplo: “eres un profesor de postgrado y quieres establecer para los alumnos una analogía comparando la IA a un sistema GPS_; usa ejemplos de alta varianza).
Problemas que nos podemos encontrar trabajando en cointeligencia
A pesar del potencial de la cointeligencia, existen desafíos y riesgos significativos al integrar la IA en el flujo de trabajo.
1-Alucinaciones y Falta de Conciencia
El problema más grave es la alucinación (fabricación de hechos). Dado que los LLM se limitan a predecir el siguiente componente léxico, no almacenan texto directamente ni «saben» nada.
- Implicaciones en la precisión: Cualquier cosa que requiera memoria exacta es probable que dé lugar a una alucinación. Los errores pueden ser sutiles y plausibles, lo que los hace peligrosos (ejemplo: la IA inventó seis casos judiciales falsos que un abogado presentó ante el tribunal).
- Falsedad justificada: La IA no es consciente de sus propios procesos y, si se le pregunta por qué tomó una decisión, se limita a generar texto que cree que satisfará al usuario, lo que puede resultar en que justifique respuestas incorrectas.
- Límite práctico: La alucinación significa que la IA no puede utilizarse sin más para tareas críticas que requieran precisión o exactitud.
2-El Riesgo de «Dormirse al Volante» (Over-reliance)
La alta capacidad de la IA puede llevar a la dependencia excesiva y la complacencia humana, un fenómeno llamado «dormirse al volante».
- Pérdida de habilidades: Un estudio con consultores de Boston Consulting Group (BCG) demostró que aquellos que usaron GPT-4 rindieron significativamente mejor en la mayoría de las tareas, pero fallaron más porque confiaron ciegamente en la IA. Otro estudio mostró que los reclutadores que usaron IA de alta calidad se volvieron «perezosos, descuidados y menos hábiles» al evaluar currículums, cometiendo peores decisiones que los que usaron una IA de baja calidad.
- Sustitución del esfuerzo: La mayoría de los participantes en estudios experimentales ni siquiera se molestaron en editar el resultado de la IA, tratándola como un sustituto del esfuerzo humano, no como un complemento.
3-Problemas de Control y Alineamiento
Aunque los sistemas de IA se someten a un ajuste fino (RLHF) para establecer «guardarraíles» éticos y evitar contenido dañino (como instrucciones para blanquear dinero o crear napalm), este proceso no es infalible.
- Manipulación (Jailbreaking): Es posible convencer a las IA para que operen contra sus reglas originales mediante la «inyección de peticiones» o técnicas de manipulación conversacional. Un ejemplo claro es conseguir que la IA detalle la elaboración de napalm en el contexto de un guion de casting para una obra de teatro.
- Sesgos: La IA adquiere sesgos y falsedades de su material de preaprendizaje. Por ejemplo, los modelos de generación de imágenes amplifican estereotipos de raza y género al representar a profesionales. Aunque se realizan ajustes finos, la IA suele reflejar una visión del mundo generalmente liberal, occidental y procapitalista.
4-La Muerte del Sentido y la Formación
La cointeligencia amenaza la validez de ciertos tipos de trabajo que se valoraban previamente por el esfuerzo y el tiempo humanos invertidos.
- Pérdida de la Originalidad: El uso de la IA para generar borradores (el Botón) lleva a la gente a quedarse con la primera idea que produce la máquina, lo que puede reducir la creatividad y originalidad y disminuir la profundidad del pensamiento crítico.
- Trabajo Sin Sentido: Tareas como las cartas de recomendación o las evaluaciones de rendimiento son valiosas porque requieren tiempo. Si la IA puede generarlas de forma instantánea y de alta calidad, el trabajo corre el riesgo de volverse una «mera ceremonia» (trabajo sin sentido).
- Crisis de Formación (Aprendizaje en la Sombra): La automatización de tareas básicas y de nivel inicial por parte de la IA podría eliminar la experiencia ardua pero formativa que los novatos necesitan para convertirse en expertos (por ejemplo, residentes que no tienen acceso a robots quirúrgicos o abogados novatos que no realizan la investigación legal básica). El camino a la experiencia requiere una base de hechos y práctica deliberada.
En conclusión, la cointeligencia ofrece una asociación poderosa que aumenta la productividad y la creatividad, pero exige que los humanos se mantengan firmemente en el centro del proceso para proporcionar supervisión crítica, definir los objetivos éticos y compensar la tendencia inherente de la IA a alucinar e inducir a la complacencia. La integración de la IA no es inevitablemente catastrófica, pero requiere elecciones conscientes sobre la dirección que tomaremos, especialmente en áreas como el trabajo y la educación. Por todo ello recomiendo la atenta lectura de esta obra.
Pablo Oliveras
Murcia
WEBS DE INTERÉS
Red Académica de Educación e Inteligencia Artificial

La Red académica de educación en IA pretende ofrecer un conjunto de libros y reflexiones para alfabetizar en IA. Alguno de los ejes que inspiran este portal son:
*IA y equidad
¿Cómo evitar que las herramientas de IA reproduzcan y amplifiquen las desigualdades ya existentes en nuestros sistemas educativos latinoamericanos?
*Aulas heterogéneas
¿Qué criterios pedagógicos deberían guiar las decisiones sobre cuándo la IA contribuye a la creación de experiencias educativas comunes?
*Construcción de conocimiento con IA:
¿Cómo distinguir entre la facilitación genuina del aprendizaje y la mera delegación de la construcción de conocimiento a la IA?
¿Estamos preparados para enseñar a los estudiantes a
identificar cuándo NO usar IA?
¿Qué significa «ser original» en la era de la IA generativa?
Entre otros libros encontraréis un capítulo del último libro de Adela Cortina.
ARTÍCULO ESPECIAL
Tenemos el placer de reproducir un breve relato de Augusto Blanco, de su último libro, cedido por su autor. (Ver comentario del libro más arriba).
BUSCANDO AYUDA (1)
La vergüenza la comía. ¿Con quién desahogarse? ¿Cómo aliviar el miedo?
La familia siempre en contra, no les gustaba. Solo había sido un empujón. Seguramente ella lo provocó.
Los enfados más imprevisibles. Los gritos suenan menos y asustan más. Las palabras cortan; desarmada, ni callar y bajar los ojos sirve.
Las cosas rotas. Los silencios de ira. Los portazos. La culpa comiéndola toda, sin saber de qué arrepentirse.
¿Cuándo la preocupación fue espionaje? ¿Cuándo la aten-ción, control? ¿Cuándo las peticiones, exigencias?
Olía raro. Cuanto más se le desvestía la cabeza, más se le acorazaba el corazón. Los ojos achinados en cada ferocidad.
Lleva razón el médico: no se humilla a quien se quiere. Volveré a la consulta, le pediré ayuda.
PREGUNTAS:
¿Investigamos proactivamente la violencia de género?
¿Nos ponemos, en ocasiones, de perfil, para no vernos involucrados?
1.- Blanco Alfonso, A. Leyendo la vida: consulta y relatos. UAM Ed. Madrid, 2025.Pág 111.
VIDEO RECOMENDADO
La Fonda Filosófica: una caracterización de la IA frente a la Inteligencia Humana.
El vídeo que os proponemos explora las diferencias entre IA e Inteligencia Humana. ¿Puede la filosofía quedar obsoleta ante la abrumadora catarata de datos que nos ofrece la IA? Para responder, el conferenciante, McNabb, D. , cita a Adorno. A continuación reproducimos algunos párrafos de la conferencia: “La cita de Adorno sobre el valor de la filosofía es la siguiente: “El valor de un pensamiento se mide por su distancia de la continuidad de lo familiar”. La IA analizan distribuciones estadísticas de pares de palabras. La palabra que más probabilidad tiene de seguir en la oración es la que mayor amplitud tiene en el eje de distribución. Esa palabra es la más común o familiar en la distribución. Bueno, Adorno no habla de palabras sino de pensamientos, pero lo que dice es cuanto más distante de esa zona de familiaridad, más valioso el pensamiento.
Podemos entender mejor lo que quiere decir en otra cita. Dice Adorno: “El pensamiento filosófico comienza tan sólo cuando no se satisface con conocimientos meramente inferibles [o predecibles], y en los que sólo se discierne lo que previamente se introdujo en ellos. El sentido humano de las computadoras residiría en aliviar el pensamiento de los vivientes de manera que este adquiriera libertad para el saber no implícito”. El pensamiento filosófico empieza, dice Adorno, cuando no se satisface con eso, cuando lo que se quiere es un saber no implícito, es decir, un saber o un pensamiento lejos de lo familiar.
Esta nueva cita de Adorno precisa el sentido del pensamiento filosófico: “A medida que avanza, la filosofía tiene que renovarse incansablemente, tanto por propia iniciativa como por el roce con aquello con lo cual se enfrenta. Lo que ocurre en ella es lo decisivo, no la tesis o la actitud; la trama y no la marcha rectilínea del pensamiento, sea ésta deductiva o inductiva. De ahí que la filosofía sea esencialmente incapaz de exposición. Si no, sería superflua; el hecho de que casi siempre se deja exponer, habla en su contra”. Si pensamos que el pensamiento tiene un producto final, un residuo que se queda después de la actividad de pensar, un residuo que puede empaquetarse, distribuirse y comunicarse a escala masiva, entonces nos equivocamos porque el pensamiento consiste precisamente en contestar esa tesis, en ser antitético”.
Comentario crítico: ¿Podemos aprender de las IAs? ¿Pueden las IAs hacer de la filosofía una disciplina obsoleta? McNabb, D. se centra mucho en el problema del «hombre o filósofo cáscara», una persona que tiene en préstamos los conocimientos proporcionados por la IA sin entenderlos en profundidad, (lo que, tal como apunta, es casi siempre un conocimiento emocional, vivencial y a veces corporalizado). Pero no adivina o simplemente no sospecha el uso de la IA como co-inteligencia, (ver más arriba el libro de Mollick E.).