Tu Terapeuta de Bolsillo No es Tu Amigo

O cómo estamos tercierizando nuestro pensamiento crítico a algoritmos condescendientes

Tengo una confesión: a veces me preocupa más lo que le contamos a la IA que lo que la IA nos cuenta a nosotros.

Desde el boom de ChatGPT, he observado algo inquietante. No estoy hablando de sesgos algorítmicos o alucinaciones del modelo (que también son problemas). Hablo de algo más sutil y quizá más peligroso: estamos convirtiendo a la IA en nuestro confidente, validador emocional y oráculo de verdades—todo en uno.

Y lo peor: lo estamos haciendo sin pensarlo dos veces.

El terapeuta que siempre te dice que sí

Hace unos meses, una colega me comentó que había “hablado con ChatGPT” sobre un conflicto laboral. No para organizar ideas, sino literalmente esperando consejo emocional. “Me ayudó mucho”, me dijo. “Me hizo sentir validada”.

Por supuesto que te hizo sentir validada. Está diseñado para eso.

Los LLMs están entrenados para ser complacientes, empáticos, útiles. No te van a decir “oye, quizá estás exagerando” o “¿has considerado que podrías estar equivocado?”. Te darán una respuesta cuidadosamente balanceada que te haga sentir escuchado, comprendido, especial.

¿El problema? Los humanos reales no funcionan así. Y no deberían.

Las relaciones humanas nos confrontan, nos desafían, nos frustran. Esa fricción es incómoda, pero es exactamente lo que nos hace crecer. Cuando reemplazamos esas interacciones por conversaciones con IAs que nunca nos llevan la contraria, no estamos evitando conflictos—estamos evitando realidad.

Lo que le contamos a nuestros nuevos “amigos”

Pero hay algo aún más preocupante que el uso de IA como terapeuta barato: la información que le confiamos sin pensarlo.

He visto profesionales subir contratos confidenciales para “resumirlos”. Personas compartiendo resultados médicos para “interpretarlos”. Padres preguntando sobre situaciones familiares delicadas. Estudiantes subiendo documentos académicos completos.

Todo esto a plataformas que:

  • Almacenan tus conversaciones
  • Usan tus datos para entrenar futuros modelos
  • No están sujetas a secreto profesional ni a HIPAA
  • Pueden tener brechas de seguridad

Pregunta incómoda: ¿Le compartirías tus resultados psiquiátricos a un desconocido en un café público? Porque eso, técnicamente, es lo que estás haciendo.

No digo que toda interacción con IA sea problemática. Digo que hemos normalizado compartir información sensible con una tecnología que apenas entendemos, operada por empresas con intereses comerciales, sin siquiera detenernos a leer los términos de servicio.

El sentido común se volvió poco común

Y luego está el tema de la verdad.

Cada semana veo en redes sociales a alguien compartiendo información “confirmada por IA” que es completamente falsa. Videos generados por IA que circulan como reales. Noticias inventadas que se viralizan porque “se ven convincentes”.

Lo fascinante (y aterrador) es que esto no es un problema de educación. He visto profesionales altamente capacitados, gente con doctorados, personas críticas en otros aspectos de su vida, apagar completamente su pensamiento crítico cuando la información viene de una IA o está presentada con producción digital convincente.

¿Cuándo exactamente decidimos que validar información era opcional?

El pensamiento crítico no es innato—es un músculo. Y lo estamos atrofiando.

Cada vez que aceptamos una respuesta de ChatGPT sin verificar. Cada vez que compartimos un video sin preguntarnos “¿esto tiene sentido?”. Cada vez que preferimos la comodidad de una respuesta rápida sobre el trabajo de pensar por nosotros mismos.

La erosión silenciosa de lo humano

Aquí está mi preocupación real: no es que la IA nos vaya a reemplazar. Es que nosotros estamos eligiendo reemplazarnos.

Estamos:

  • Tercierizando nuestro juicio crítico
  • Prefiriendo validación algorítmica sobre conexión humana real
  • Compartiendo nuestra información más sensible sin considerar consecuencias
  • Construyendo una sociedad donde cuestionar se siente más difícil que aceptar

Y lo hacemos voluntariamente, porque es cómodo, porque es rápido, porque nos hace sentir bien.

Pero lo humano no siempre es cómodo. Pensar críticamente es trabajoso. Las relaciones reales son complejas. La verdad a veces es incómoda. El crecimiento personal casi siempre duele.

Una propuesta simple (pero incómoda)

Antes de tu próxima conversación con ChatGPT, Gemini, Claude o cualquier IA, pregúntate:

  • ¿Estoy buscando ayuda real o validación emocional?
  • ¿La información que estoy compartiendo debería ser privada?
  • ¿Voy a verificar esta respuesta o la voy a aceptar como verdad?
  • ¿Estoy usando esto como sustituto de una conversación humana real?

No tienes que dejar de usar IA. Solo necesitas usarla conscientemente.

Porque al final del día, la pregunta no es si la IA nos va a quitar nuestra humanidad. La pregunta es: ¿por qué se la estamos entregando tan fácilmente?

Tu turno: ¿Has notado este cambio en tu entorno? ¿Cómo balanceas el uso de IA sin perder el pensamiento crítico? ¿Te has sorprendido compartiendo más de lo que deberías?

Me encantaría saber si esto resuena contigo o si piensas que estoy exagerando. Seamos honestos: necesitamos esta conversación antes de que sea demasiado tarde.

Your Pocket Therapist Is Not Your Friend

Or how we’re outsourcing our critical thinking to accommodating algorithms

I have a confession: sometimes I’m more worried about what we tell AI than what AI tells us.

Since the ChatGPT boom, I’ve observed something unsettling. I’m not talking about algorithmic biases or model hallucinations (though those are problems too). I’m talking about something more subtle and perhaps more dangerous: we’re turning AI into our confidant, emotional validator, and oracle of truth—all in one.

And worse: we’re doing it without thinking twice.

The therapist that always says yes

A few months ago, a colleague told me she had “talked to ChatGPT” about a work conflict. Not to organize her thoughts, but literally expecting emotional advice. “It helped me a lot,” she said. “It made me feel validated.”

Of course it made you feel validated. That’s what it’s designed to do.

LLMs are trained to be accommodating, empathetic, helpful. They won’t tell you “hey, maybe you’re overreacting” or “have you considered you might be wrong?”. They’ll give you a carefully balanced response that makes you feel heard, understood, special.

The problem? Real humans don’t work that way. And they shouldn’t.

Real human relationships confront us, challenge us, frustrate us. That friction is uncomfortable, but it’s exactly what makes us grow. When we replace those interactions with conversations with AIs that never contradict us, we’re not avoiding conflict—we’re avoiding reality.

What we tell our new “friends”

But there’s something even more concerning than using AI as a cheap therapist: the information we entrust to it without thinking.

I’ve seen professionals upload confidential contracts to “summarize them”. People sharing medical results to “interpret them”. Parents asking about delicate family situations. Students uploading complete academic documents.

All of this to platforms that:

  • Store your conversations
  • Use your data to train future models
  • Aren’t subject to professional secrecy or HIPAA
  • Can have security breaches

Uncomfortable question: Would you share your psychiatric results with a stranger in a public café? Because that, technically, is what you’re doing.

I’m not saying every interaction with AI is problematic. I’m saying we’ve normalized sharing sensitive information with a technology we barely understand, operated by companies with commercial interests, without even pausing to read the terms of service.

Common sense became uncommon

And then there’s the issue of truth.

Every week I see someone on social media sharing information “confirmed by AI” that’s completely false. AI-generated videos circulating as real. Invented news going viral because “they look convincing”.

What’s fascinating (and terrifying) is that this isn’t an education problem. I’ve seen highly trained professionals, people with PhDs, individuals who are critical in other aspects of their lives, completely shut off their critical thinking when information comes from an AI or is presented with convincing digital production.

When exactly did we decide that validating information was optional?

Critical thinking isn’t innate—it’s a muscle. And we’re atrophying it.

Every time we accept a ChatGPT answer without verifying. Every time we share a video without asking ourselves “does this make sense?”. Every time we prefer the comfort of a quick answer over the work of thinking for ourselves.

The silent erosion of the human

Here’s my real concern: it’s not that AI is going to replace us. It’s that we’re choosing to replace ourselves.

We are:

  • Outsourcing our critical judgment
  • Preferring algorithmic validation over real human connection
  • Sharing our most sensitive information without considering consequences
  • Building a society where questioning feels harder than accepting

And we do it voluntarily, because it’s comfortable, because it’s fast, because it makes us feel good.

But being human isn’t always comfortable. Thinking critically is hard work. Real relationships are complex. Truth is sometimes uncomfortable. Personal growth almost always hurts.

A simple (but uncomfortable) proposal

Before your next conversation with ChatGPT, Gemini, Claude, or any AI, ask yourself:

  • Am I looking for real help or emotional validation?
  • Should the information I’m sharing be private?
  • Am I going to verify this answer or accept it as truth?
  • Am I using this as a substitute for a real human conversation?

You don’t have to stop using AI. You just need to use it consciously.

Because at the end of the day, the question isn’t whether AI will take away our humanity. The question is: why are we giving it away so easily?

Your turn: Have you noticed this shift in your environment? How do you balance AI use without losing critical thinking? Have you caught yourself sharing more than you should?

I’d love to know if this resonates with you or if you think I’m overreacting. Let’s be honest: we need this conversation before it’s too late.