Reading in Spanish is one of the fastest ways to expand your vocabulary and understand how the language works in real contexts.

In today’s C1-level activity, you’ll read part of an article on artificial intelligence.

After reading, answer the 5 questions and then check your answers at the end.

Your mission: read, understand, and answer the questions at the end.

¡Buena suerte! 🍀

¿La inteligencia artificial nos hace más humanos?

Más allá de automatizar tareas y gestionar información, la IA tiene el potencial de ayudarnos a desarrollar las capacidades más humanas. Pero esto no siempre sucede

Madrid - 13 FEB 2025

Está detrás de las fotos que tomas con el móvil, de esa solicitud de crédito que te denegaron automáticamente, de las películas que ves en cualquier servicio de streaming o de las noticias que consultas en internet, porque la relación del ser humano con la inteligencia artificial es ya tan ubicua como invisible. “En la mayoría de los casos no sabemos que estamos interactuando con algoritmos de inteligencia artificial, pero son ellos los que predicen el tiempo; deciden qué actualizaciones leemos de nuestros amigos; qué películas vemos; qué música escuchamos; qué libros compramos e incluso por dónde vamos, porque los programas de mapas funcionan con IA. Si la mencionas, la mayoría piensa en ChatGPT, pero eso solo es la punta del iceberg”, explica Nuria Oliver, doctora por el MIT y directora científica y cofundadora de Ellis Alicante, una fundación de investigación en IA centrada en la humanidad.

Inteligencia artificial y progreso

Esa relación de causalidad, sin embargo, no parece estar tan clara, ya que nada obliga al usuario a aplicar esas competencias humanas al interactuar con una inteligencia artificial. Tal y como advierte Oliver, “los sistemas actuales de IA no son perfectos; tienen una serie de limitaciones y, si queremos hacer un uso responsable de ellos, efectivamente necesitamos desarrollar una serie de habilidades como el pensamiento crítico y la verificación de fuentes, por ejemplo. Pero no es algo que vaya a suceder [de por sí], ya que tú puedes usar una IA generativa cualquiera, creerte todo lo que te está diciendo y actuar en consecuencia”. Un contexto en el que, reflexiona Enríquez, es necesario fortalecer conceptos como la confianza con el usuario, “en un mundo repleto de simulaciones, máquinas que generan vídeos de mentira y fake news que nos indignan o confirman en nuestro sesgo”.

Oliver entonces se pregunta cuántas personas realmente ejercen ese acercamiento crítico al interactuar con la IA: “Seguramente no muchas, porque los grandes modelos de lenguaje, los chatbots, tienen una capacidad verbal tan desarrollada y el texto que generan está tan bien articulado que automáticamente la mayoría pensamos que lo que dicen es verdad”. Otra cosa, recuerda, es que ese sistema de IA se desarrolle con eso en mente: “En Ellis Alicante tenemos un proyecto específico para que la inteligencia artificial fomente el pensamiento crítico, a través de un chatbot que no te responde a todo lo que te preguntas, sino que aplica el método socrático para que seas tú quien encuentre las respuestas”.

Por eso, con casi toda certeza, la clave está en la educación, de manera que la sociedad ponga de su parte todo lo necesario para recuperar esas capacidades que parecen haber quedado relegadas. “Que vuelva la Filosofía a los institutos, que el debate no sea un pasatiempo sino una realidad habitual, y que la capacidad de estructurar el pensamiento te diferencie y te permita explotar tu creatividad es un mundo donde se valora siempre más la inmediatez y la eficiencia”, señala Enríquez.

Fuente: El País

PREGUNTAS

  1. Según el texto, en qué consiste la paradoja de la relación entre seres humanos e inteligencia artificial en cuanto al desarrollo de capacidades humanas?

  2. ¿Qué factores menciona Nuria Oliver como necesarios para usar la inteligencia artificial de manera responsable, y por qué considera que no surgen de manera automática en los usuarios?

  3. ¿Qué riesgos destacan Oliver y Enríquez respecto a la confianza del usuario en los sistemas de IA, especialmente en un contexto de desinformación y simulaciones?

  4. ¿En qué consiste el proyecto de Ellis Alicante relacionado con el pensamiento crítico, y cómo se diferencia de la forma tradicional en la que interactuamos con los chatbots?

  5. ¿Qué papel atribuye Enríquez a la educación —concretamente a disciplinas como la Filosofía o el debate— en la relación futura entre humanidad e inteligencia artificial? ¿Por qué considera que estas competencias son esenciales en la sociedad actual?

Don’t feel overwhelmed and take it easy. I’ll be sending short activities like this every week.

You can find the answers below

DON’T CHEAT!

This is about improving your Spanish

¡Nos vemos en clase!,

Alba

ANSWERS

  1. La paradoja radica en que, aunque la IA tiene el potencial de ayudarnos a desarrollar habilidades profundamente humanas —como el pensamiento crítico, la creatividad o la reflexión—, en realidad esto no ocurre automáticamente. Muchas personas usan la inteligencia artificial de forma pasiva, aceptando sus respuestas sin cuestionarlas. Por tanto, una tecnología que podría hacernos más humanos también puede volvernos más dependientes y menos críticos si no sabemos utilizarla conscientemente.

  2. Nuria Oliver menciona que para utilizar la IA de forma responsable es necesario desarrollar competencias como el pensamiento crítico y la verificación de fuentes. Sin embargo, señala que estas habilidades no aparecen de manera espontánea en los usuarios, porque cualquiera puede usar una IA generativa, creer todo lo que dice y actuar en consecuencia sin evaluar su veracidad. Es decir, la tecnología no garantiza por sí sola un uso reflexivo: depende de la actitud del usuario.

  3. Tanto Oliver como Enríquez alertan de que los usuarios tienden a confiar en exceso en los sistemas de IA, sobre todo porque los modelos de lenguaje generan respuestas muy coherentes y bien formuladas. Este exceso de confianza es especialmente peligroso en un contexto lleno de fake news, vídeos falsos y simulaciones digitales. El problema es que el usuario puede asumir como verdad lo que dice la IA sin cuestionarlo, reforzando sus sesgos o tomando decisiones erróneas.

  4. Ellis Alicante desarrolla un chatbot diseñado no para dar respuestas directas, sino para hacer preguntas al usuario utilizando el método socrático. Su objetivo es que sea la persona quien llegue a las conclusiones por sí misma, fomentando el pensamiento crítico. Se diferencia de los chatbots tradicionales porque estos suelen ofrecer respuestas inmediatas y completas, mientras que este propone un diálogo que estimula la reflexión en lugar de proporcionar soluciones automáticas.

  5. Enríquez sostiene que la educación es la clave para que la sociedad recupere habilidades que parecen haberse relegado, como argumentar, reflexionar o cuestionarse la realidad. Defiende la vuelta de la Filosofía a los institutos, la incorporación habitual del debate y la capacidad de estructurar el pensamiento como herramientas esenciales. Considera que estas competencias son vitales porque vivimos en una sociedad dominada por la inmediatez y la eficiencia, donde pensar despacio, dudar y crear ideas propias se ha vuelto un acto casi revolucionario.

Keep Reading