Hace años poco mas de 15 años, en un aula de Filosofía de la Ciencia, uno de los cursos en la licenciatura, leí “La Estructura de las Revoluciones Científicas” de Kuhn, (que por cierto releí durante el doctorado para reencontrar mi pasión por la ciencia disruptiva), me fascinó esa idea de que los paradigmas no cambian por acumulación de datos, sino por cambios en las preguntas fundamentales que hacemos transformando con ello la manera de hacer ciencia.

Me atraían desde entonces los cuestionamientos abstractos. La epistemología. La naturaleza del conocimiento científico. Las grandes preguntas sobre verdad, método, realidad.

Mi profesor, el Dr. Vicente Aboites, me dijo algo que nunca olvidé cuando me acerque para manifestar mi interes en la filosofía como area para mi posgrado:

“Está bien reflexionar sobre lo abstracto. Pero este país necesita gente que aplique ese pensamiento crítico a problemas reales. Que construya ciencia aplicada. Que resuelva cosas críticas para la sociedad. Espera a los 50 años o mas para filosofar”

Tomé ese consejo en serio. O bueno, quizá no tanto ya que me enfoque durante el doctorado en Biología de Sistemas, también conocida como Biología Computacional. Un área bastante abstracta y con aplicaciones no tan tangibles en el corto plazo. Los siguientes 10+ años los dediqué a la práctica: ciencia de datos en lo que llamo el mundo real, el sector privado comercial, Big Data, Machine Learning, arquitectura de sistemas, gobernanza, y ahora IA.

Construí soluciones. Implementé modelos. Diseñé arquitecturas de datos. Trabajé en fintech, retail, consumo masivo. Vi cómo la tecnología se convierte en producto, los datos en un producto básico dentro de las empresas. Cómo los algoritmos toman decisiones que afectan vidas reales.

Y fue en esas trincheras donde descubrí que el Dr. Aboites tenía más razón de lo que imaginaba.

Pero no de la forma que él pensaba.

Como dijo Mario Benedetti: “Justo cuando tenía todas las respuestas, me cambiaron las preguntas” Durante años, la pregunta central de mi trabajo fue técnica:

“¿Puedo construir esto?”

¿Puedo diseñar un sistema que procese estos datos? ¿Puedo entrenar un modelo que prediga esto? ¿Puedo escalar esta solución? ¿Puedo optimizar este pipeline?

Y la respuesta casi siempre era sí. La tecnología es increíblemente capaz. Los algoritmos son poderosos. Los datos abundan.

Pero en algún punto - no fue un momento dramático, fue más como despertar gradualmente - la pregunta cambió:

“¿Debería construir esto?”

Y luego:

“¿Para quién? ¿A qué costo? ¿Con qué propósito real?”

Esas preguntas que me parecían abstractas en el curso de filosofía se volvieron urgentemente concretas en la realidad del desarrollo tecnológico.

La brújula moral que olvidamos empacar La industria tecnológica tiene una narrativa seductora: estamos democratizando el conocimiento, empoderando a las personas, resolviendo los grandes problemas de la humanidad.

Y hay verdad en eso. La tecnología tiene potencial transformador real.

Pero sin brújula ética, sin preguntarnos constantemente el ¿por qué’ y el ¿para qué?, ese potencial se desvía fácilmente.

Construimos sistemas de “productividad” que en realidad aceleran el burnout.

Creamos “asistentes personales” que extraen datos sensibles sin consentimiento informado real.

Implementamos “optimizaciones” que aumentan ganancias corporativas mientras precarizamos trabajo humano.

Automatizamos decisiones sin preguntarnos si deberíamos automatizar esa decisión en particular.

Y lo más peligroso: lo celebramos como innovación.

¿Por qué los tecnólogos debemos hacer estas preguntas? Aquí está lo que entendí después de una década en esta industria:

La gente que construye la tecnología tiene la mayor responsabilidad - y la mayor ceguera - respecto a sus implicaciones éticas.

Estamos tan inmersos en el “¿cómo?” que olvidamos preguntar el “¿por qué?”

Estamos tan enamorados de la capacidad de construir que no nos detenemos a cuestionar si deberíamos.

Medimos el éxito en métricas de rendimiento, velocidad de iteración, adoption rates - pero rara vez en impacto humano real, en costo social, en consecuencias no intencionales.

Y eso tiene que cambiar.

No podemos dejar las preguntas éticas solo a los filósofos académicos que nunca han desplegado un modelo en producción.

No podemos dejar la regulación solo a políticos que no entienden cómo funcionan estos sistemas.

Nosotros - los que construimos estas tecnologías - tenemos que ser los primeros en cuestionarlas.

La promesa que debemos recuperar Mi profesor, tenía razón: este país (este mundo) necesita gente que aplique pensamiento crítico a problemas reales.

Pero no solo en el sentido de “construir soluciones técnicas.”

En el sentido de preguntarnos si la solución técnica que estamos construyendo es la que realmente necesitamos.

La democratización del conocimiento y el auge de las tecnologías de la información nos prometieron herramientas para resolver problemas sociales críticos.

Esa promesa sigue siendo válida.

Pero cumplirla requiere más que código brillante y modelos sofisticados.

Requiere preguntarnos constantemente:

¿Esta tecnología a quién sirve realmente?

¿Qué estamos optimizando y por qué?

¿Qué perdemos en el proceso?

¿Qué tipo de sociedad estamos construyendo con estas herramientas?

¿Hacia dónde vamos? ¿Y es ahí donde queremos llegar?

¿Por qué este newsletter? Por eso existe “Beyond the Algorithm.”

No para rechazar la tecnología - la construyo, la vivo, creo en su potencial.

Para rescatar la reflexión crítica que debería acompañarla.

Escribo desde las trincheras. Como alguien que ha estado en las juntas donde se toman estas decisiones. Que ha visto cómo la presión por “mover rápido y romper cosas” termina rompiendo lo que no debería romperse. Que conoce la tensión entre lo que es técnicamente posible y lo que es éticamente responsable.

No escribo desde la torre de marfil académica.

Escribo desde el lugar incómodo de quien carga con la responsabilidad de construir estas tecnologías y preguntarse si debería.

Este newsletter es para:

Los desarrolladores que sienten que hay algo mal pero no saben articularlo

Los científicos de datos que se preguntan qué están realmente optimizando

Los líderes técnicos cansados del hype y buscando sustancia

Cualquiera que crea que la tecnología debe servir a la humanidad, no al revés

Es un espacio para las preguntas incómodas.

Para cuestionar la productividad sin propósito. Para examinar qué perdemos cuando “ganamos eficiencia.” Para defender lo insustituiblemente humano en un mundo que quiere automatizar todo. Para construir mejor - no solo más rápido.

La brújula que necesitamos Hace años, un profesor me empujó hacia la ciencia aplicada y los problemas críticos de la sociedad.

Hoy entiendo que el pensamiento filosófico y crítico que aprendí entonces no era una distracción de ese objetivo.

Era exactamente lo que necesitábamos para lograrlo.

Porque la tecnología sin brújula ética no es progreso.

Es solo poder sin dirección.

Y poder sin dirección puede llevarnos a cualquier parte - incluso a lugares a los que no queremos llegar.

Esta es mi brújula.

No la única válida. No la definitiva. Pero la mía.

Y la comparto porque creo que necesitamos más gente en esta industria dispuesta a hacer estas preguntas, aunque sean incómodas.

Dispuesta a ir más lento si significa ir en la dirección correcta.

Dispuesta a decir “no deberíamos” incluso cuando podemos.

Dispuesta a recordar que la tecnología existe para servir a la humanidad - no para reemplazarla.

Si este cuestionamiento resuena contigo, te invito a esta conversación.

No tengo todas las respuestas. Pero creo que hacer las preguntas correctas es el primer paso.

A little over 15 years ago, in a Philosophy of Science classroom—one of the courses in my undergraduate degree—I read Kuhn’s “The Structure of Scientific Revolutions” (which, by the way, I reread during my PhD to rediscover my passion for disruptive science). I was fascinated by the idea that paradigms don’t change through data accumulation, but through shifts in the fundamental questions we ask, thereby transforming the way we do science.

Since then, I’ve been drawn to abstract questions. Epistemology. The nature of scientific knowledge. The big questions about truth, method, reality.

My professor, Dr. Vicente Aboites, told me something I never forgot when I approached him to express my interest in philosophy as an area for graduate studies:

“It’s fine to reflect on the abstract. But this country needs people who apply that critical thinking to real problems. Who build applied science. Who solve things that are critical for society. Wait until you’re 50 or older to philosophize.”

I took that advice seriously. Or well, maybe not entirely, since I focused during my PhD on Systems Biology, also known as Computational Biology—a fairly abstract area with applications not so tangible in the short term. The next 10+ years I dedicated to practice: data science in what I call the real world, the commercial private sector, Big Data, Machine Learning, systems architecture, governance, and now AI.

I built solutions. Implemented models. Designed data architectures. Worked in fintech, retail, consumer goods. Saw how technology becomes product, how data becomes a basic commodity within companies. How algorithms make decisions that affect real lives.

And it was in those trenches that I discovered Dr. Aboites was more right than he imagined.

But not in the way he thought.

As Mario Benedetti said: “Just when I had all the answers, they changed the questions”

For years, the central question of my work was technical:

“Can I build this?”

Can I design a system that processes this data? Can I train a model that predicts this? Can I scale this solution? Can I optimize this pipeline?

And the answer was almost always yes. Technology is incredibly capable. Algorithms are powerful. Data abounds.

But at some point - it wasn’t a dramatic moment, it was more like gradually waking up - the question changed:

“Should I build this?”

And then:

“For whom? At what cost? With what real purpose?”

Those questions that seemed abstract in the philosophy course became urgently concrete in the reality of technological development.

The moral compass we forgot to pack

The tech industry has a seductive narrative: we’re democratizing knowledge, empowering people, solving humanity’s great problems.

And there’s truth in that. Technology has real transformative potential.

But without an ethical compass, without constantly asking ourselves why and what for, that potential easily gets derailed.

We build “productivity” systems that actually accelerate burnout.

We create “personal assistants” that extract sensitive data without real informed consent.

We implement “optimizations” that increase corporate profits while making human work precarious.

We automate decisions without asking whether we should automate that particular decision.

And most dangerously: we celebrate it as innovation.

Why technologists must ask these questions

Here’s what I understood after a decade in this industry:

The people who build the technology have the greatest responsibility - and the greatest blindness - regarding its ethical implications.

We’re so immersed in the “how” that we forget to ask the “why.”

We’re so in love with the ability to build that we don’t stop to question whether we should.

We measure success in performance metrics, iteration speed, adoption rates - but rarely in real human impact, social cost, unintended consequences.

And that has to change.

We can’t leave ethical questions only to academic philosophers who have never deployed a model to production.

We can’t leave regulation only to politicians who don’t understand how these systems work.

We - those who build these technologies - have to be the first to question them.

The promise we must reclaim

My professor was right: this country (this world) needs people who apply critical thinking to real problems.

But not just in the sense of “building technical solutions.”

In the sense of asking ourselves whether the technical solution we’re building is the one we really need.

The democratization of knowledge and the rise of information technologies promised us tools to solve critical social problems.

That promise is still valid.

But fulfilling it requires more than brilliant code and sophisticated models.

It requires constantly asking ourselves:

Who does this technology really serve?

What are we optimizing and why?

What do we lose in the process?

What kind of society are we building with these tools?

Where are we going? And is that where we want to arrive?

Why this newsletter

That’s why “Beyond the Algorithm” exists.

Not to reject technology - I build it, I live it, I believe in its potential.

To rescue the critical reflection that should accompany it.

I write from the trenches. As someone who has been in the meetings where these decisions are made. Who has seen how the pressure to “move fast and break things” ends up breaking what shouldn’t be broken. Who knows the tension between what is technically possible and what is ethically responsible.

I don’t write from the academic ivory tower.

I write from the uncomfortable place of someone who bears the responsibility of building these technologies and questioning whether they should.

This newsletter is for:

Developers who feel something is wrong but don’t know how to articulate it

Data scientists who wonder what they’re really optimizing

Tech leaders tired of the hype and searching for substance

Anyone who believes technology should serve humanity, not the other way around

It’s a space for uncomfortable questions.

To question productivity without purpose. To examine what we lose when we “gain efficiency.” To defend the irreplaceable humanity in a world that wants to automate everything. To build better - not just faster.

The compass we need

Years ago, a professor pushed me toward applied science and society’s critical problems.

Today I understand that the philosophical and critical thinking I learned then wasn’t a distraction from that goal.

It was exactly what we needed to achieve it.

Because technology without an ethical compass isn’t progress.

It’s just power without direction.

And power without direction can take us anywhere - even places we don’t want to go.

This is my compass.

Not the only valid one. Not the definitive one. But mine.

And I share it because I believe we need more people in this industry willing to ask these questions, even when they’re uncomfortable.

Willing to go slower if it means going in the right direction.

Willing to say “we shouldn’t” even when we can.

Willing to remember that technology exists to serve humanity - not to replace it.

If this questioning resonates with you, I invite you to this conversation.

I don’t have all the answers. But I believe asking the right questions is the first step.