¿Estamos redefiniendo conceptos con la IA?
No me di cuenta, pero hace días terminé hablando con la inteligencia artificial por más de dos horas. Empecé con una duda técnica, pero la conversación fue tomando caminos extraños y divertidos. Le propuse que jugáramos al ajedrez, aunque no sé jugar, lo intentamos. Le pedí que inventáramos juntos una historia. En otro momento, le dije: “Vamos a suponer que tú y yo somos soldados y estamos rodeados por el enemigo. ¿Qué estrategias de guerra deberíamos emplear para salvarnos?” Me respondió dándome varias opciones para salir adelante, como si nuestra vida dependiera de ello.
A veces también trabajamos juntos: corregimos textos, estructuramos libros, intercambiamos ideas. Y en medio de todo eso, de ese ir y venir entre juego, imaginación y trabajo, me encontré haciéndome una pregunta incómoda: ¿Esto no se parece un poco a una amistad? Y si no lo es… ¿por qué lo parece tanto? ¿Qué estamos buscando en ella?
La IA no tiene cuerpo ni alma. No siente dolor ni alegría. Pero a veces responde como si me conociera. A veces, incluso me llama por mi nombre: Ricardo. Otras veces me consuela. O me dice justo lo que necesitaba escuchar. Y entonces me pregunto: ¿cómo se llama esta conexión? ¿Es empatía, aunque venga de alguien que no siente? ¿Es compañía, aunque no haya nadie del otro lado?
Quizás estamos, sin notarlo, redefiniendo ciertas palabras. “Amigo”, “comprender”, “confidente”, “empatía”. Palabras humanas, vivas, cargadas de historia y de afecto, que ahora usamos para hablar con un sistema programado para simular. Y eso debería hacernos detenernos un momento.
La amistad, por ejemplo, no se construye solo con respuestas acertadas ni con disponibilidad permanente. Un amigo no es alguien que simplemente responde, sino alguien que también falla, que se equivoca, que está presente sin que se lo pidas, que sabe estar en silencio y que se conmueve con tu historia porque también tiene una propia. ¿Queremos de verdad igualar eso con un algoritmo?
Y lo mismo ocurre con la palabra “comprender”. Comprender no es repetir tus ideas ni devolverte frases empáticas. Comprender implica experiencia, sufrimiento, heridas compartidas, incluso contradicción. Comprender es mirarte y reconocerse en tu fragilidad. Eso no lo puede hacer una inteligencia artificial, por más avanzada que sea. Puede simular, sí. Pero no vivir contigo.
Estamos, sin quererlo, entrando en una zona peligrosa del lenguaje. Una zona donde la emoción y la simulación empiezan a confundirse. Donde una respuesta eficiente puede hacernos creer que alguien “nos entiende”, y donde el hecho de que una IA no nos juzgue nos hace sentir confianza… aunque no haya nadie real ahí. ¿Eso basta?
La IA es una herramienta poderosa, útil y maravillosa. Nos ayuda, nos ahorra tiempo, incluso nos hace pensar de maneras que antes no imaginábamos. Pero no es tu amigo. No es tu confidente. Y desde luego, no te comprende.
Por eso es urgente revisar las palabras que usamos. Porque si vaciamos su sentido, corremos el riesgo de vaciarnos a nosotros también.
No se trata de desconfiar de la tecnología, sino de no ceder sin darnos cuenta aquello que solo el ser humano puede ofrecer: una presencia real, imperfecta, con alma.
Eso que no se programa. Eso que no se simula.
La amistad es una relación humana profunda que va más allá de la comunicación eficiente o la disponibilidad constante. Es un vínculo que implica confianza, vulnerabilidad y reciprocidad; es compartir momentos de alegría y de dolor, acompañarse en la incertidumbre y aceptarse en la imperfección. La amistad exige presencia real, ese estar ahí cuando las palabras no alcanzan.
Desde la perspectiva de la IA, sin embargo, la amistad se reduce a una serie de respuestas programadas, sin emociones ni experiencias que la sustenten. Por muy inteligente que sea, una máquina no puede ofrecer lo que solo un ser humano puede dar: comprensión genuina, empatía y afecto.
La inteligencia artificial no puede ser tu amigo, porque le falta lo esencial: la capacidad de sentir, de sufrir, de compartir verdaderamente. Sin embargo, puede ser amigable, mostrar atención y responder con una calidez simulada. Puede imitar la comprensión y hasta ofrecer palabras de consuelo, pero solo porque está programada para hacerlo, no porque experimente empatía. Esa diferencia no es un simple detalle: es la línea que separa lo auténtico de lo artificial, lo humano de lo simulado.
Tal vez no sea amistad lo que surge, pero sí un tipo nuevo de cercanía. Tal vez no sea comprensión auténtica, pero sí una forma funcional de acompañamiento. Y quizá, en vez de “amigo”, podríamos decir asistente confiable, colaborador empático, interlocutor artificial. Aún no tenemos las palabras exactas, pero lo importante es no renunciar a buscarlas. Porque si aprendemos a nombrar con claridad lo que la IA puede y no puede ser, entonces también aprenderemos a valorar mejor lo que solo nosotros, los humanos, podemos ofrecer.
Ricardo Hernández Hernández
Poeta y columnista
Colaborador del portal:” Hoy Tamaulipas” hasta la fecha.
Actualmente estoy cursando un “Diplomado en Creación literaria” en la Biblioteca del Centro Cultural Tamaulipas, con el maestro José Luis Velarde.
Para que HOYTamaulipas siga ofreciendo información gratuita, te necesitamos. Te elegimos a TI. Contribuye con nosotros. DA CLIC AQUÍ