21 de marzo. Día Mundial del Síndrome de Down.
Caterina Moretti, embajadora de la Fundación Adecco y trabajadora con síndrome de Down, le hizo una pregunta a la inteligencia artificial: ¿Por qué cuesta tanto la inclusión?
La IA respondió. Habló de barreras culturales, de prejuicios, de falta de oportunidades. Palabras correctas. Bien estructuradas. Políticamente impecables.
Pero hay una ironía brutal que nadie en Silicon Valley parece querer ver: la herramienta a la que Caterina le preguntó sobre inclusión fue diseñada sin incluirla.
El número que lo dice todo
En 2019, la Sociedad Canadiense de Síndrome de Down hizo un experimento simple: probaron cuántas palabras reconocía Google Home cuando las decía una persona con síndrome de Down.
El resultado: 30%.
Siete de cada diez palabras, perdidas. No por falta de claridad del hablante. Sino porque los algoritmos de reconocimiento de voz fueron entrenados con millones de horas de audio de voces neurotípicas. Las voces de personas con síndrome de Down simplemente no estaban en los datos.
Esto no es un detalle técnico menor. Es una decisión de diseño con consecuencias reales.
Los asistentes de voz — Alexa, Siri, Google Assistant — se venden como herramientas de autonomía. Para personas con movilidad reducida, con dificultad visual, con condiciones que dificultan el uso de pantallas táctiles, la interacción por voz no es un gadget: es acceso. Es independencia. Es dignidad.
Y para millones de personas con síndrome de Down, esa puerta está cerrada.
La brecha que Silicon Valley no calcula
Hay aproximadamente 6 millones de personas con síndrome de Down en el mundo. En América Latina, la prevalencia es de 1 en cada 600-700 nacimientos. En México, nacen alrededor de 6,000 bebés con trisomía 21 cada año.
Estas comunidades no son un nicho marginal. Son millones de personas que usan — o intentan usar — tecnología todos los días.
¿Cuántas de las interfaces digitales que usamos fueron diseñadas pensando en ellas?
Las apps bancarias requieren lectura rápida de textos complejos. Las plataformas de servicios de gobierno asumen velocidades de procesamiento estándar. Los chatbots responden en lenguaje formal y abstracto. Los formularios tienen tiempos límite. Los videos no siempre tienen subtítulos. Los audios no siempre tienen transcripciones.
En LATAM, donde la digitalización de servicios básicos avanza aceleradamente — trámites fiscales, seguridad social, servicios municipales — la exclusión digital no es inconveniencia. Es pérdida de acceso a derechos.
La IA no diseñó una barrera. Simplemente nunca diseñó una puerta.
El problema no es técnico. Es político.
Cuando Google recibió los resultados del experimento canadiense, se comprometió a sumar 500 nuevas voces de personas con síndrome de Down a sus algoritmos. Un gesto. Una promesa.
Pero la pregunta correcta no es si Google puede mejorar su modelo. La pregunta es: ¿por qué no estaban incluidas desde el principio?
La respuesta es sistémica. Los equipos que diseñan estos sistemas son mayoritariamente neurotípicos. Los datasets de entrenamiento reflejan las voces de quienes los construyeron. La diversidad cognitiva no figura en los roadmaps de producto. No porque sea imposible incluirla — sino porque nadie la puso en la agenda.
Esto no es una conspiración. Es algo más peligroso: una omisión normalizada.
En el ecosistema tecnológico latinoamericano — con menos recursos, mayor dependencia de plataformas extranjeras, y menor capacidad de presionar a corporaciones globales — el problema se amplifica. No tenemos el lobby. No tenemos estándares de accesibilidad obligatorios con dientes reales. No tenemos la infraestructura institucional que en Europa o Canadá logra que estas conversaciones lleguen al diseño de productos.
El resultado: importamos tecnología excluyente y la llamamos modernización.
“Solo ven el síndrome de Down. No me ven a mí.”
Una mujer con síndrome de Down describió una vez cómo se siente cuando el mundo la reduce a su diagnóstico:
“Solo ven el síndrome de Down. No me ven a mí.”
Podría estar hablando del diseño tecnológico.
Cuando construimos sistemas de IA que no reconocen ciertas voces, que no anticipan ciertos patrones cognitivos, que no consideran ciertos ritmos de interacción — no estamos siendo neutrales. Estamos codificando una jerarquía de quién importa.
Y en esa jerarquía, las personas con síndrome de Down no aparecen. No en los datos. No en los equipos de diseño. No en los casos de uso. No en las demos de producto. No en los discursos de democratización que Silicon Valley exporta al mundo entero.
Cada 21 de marzo, el mundo se llena de calcetines de colores y mensajes de inclusión. Las empresas tecnológicas publican posts. Los algoritmos generan declaraciones políticamente correctas cuando se les pregunta.
Y mientras tanto, el asistente de voz sigue sin entender a Caterina.
La IA más poderosa de la historia de la humanidad está siendo construida ahora mismo. Se está entrenando con datos. Se está diseñando con valores. Se están tomando decisiones sobre quién cuenta como usuario y quién no.
¿Cuántas voces más tienen que quedar fuera del 30% para que esto se considere un problema de diseño y no de capacidad?
¿Tú qué opinas?
REFERENCIAS Y FUENTES
Datos sobre síndrome de Down y prevalencia:
Organización Mundial de la Salud (OMS) - Síndrome de Down: datos y cifras (actualización 2024)
- Prevalencia global: 1 en 1,000-1,100 nacimientos vivos
- Estimado mundial: aproximadamente 6 millones de personas con síndrome de Down
Centro Nacional de Equidad de Género y Salud Reproductiva, México (CNEGSR) - Estadísticas de trisomía 21 en México
- Aproximadamente 6,000 nacimientos con síndrome de Down por año en México
- Prevalencia: 1 en cada 600-700 nacimientos en LATAM
Down Syndrome International - Informe de prevalencia global (2023)
- Datos de incidencia por región, incluyendo América Latina
Reconocimiento de voz y exclusión algorítmica:
Canadian Down Syndrome Society - Project Understood (2019)
- Experimento documentado: Google Home reconoce solo el 30% de palabras de personas con síndrome de Down
- Lanzamiento de iniciativa para incluir 500 nuevas voces en algoritmos de Google
Chequeado (Argentina) - “Inteligencia artificial y discapacidad: cuando los algoritmos son herramientas de exclusión” (2020)
- Análisis de barreras algorítmicas para personas con discapacidad en LATAM
- Entrevista a investigador del CONICET sobre apropiación tecnológica y discapacidad
Mauro Alejandro Soto, CONICET - Doctorado sobre apropiación de tecnologías digitales por personas con discapacidad
- Marco analítico sobre exclusión algorítmica en contexto latinoamericano
Inclusión, tecnología y diseño:
Fundación Adecco España - Informe Día Mundial Síndrome de Down 2026
- Caso de Caterina Moretti, embajadora con síndrome de Down, preguntando a la IA sobre inclusión
- Datos de empleabilidad: 129 personas con síndrome de Down acompañadas en 2025
Naciones Unidas (UNRIC) - “La inteligencia artificial y la inclusión de las personas con discapacidad” (2024)
- Marco internacional sobre IA y derechos de personas con discapacidad
CEPAL / Índice Latinoamericano de Inteligencia Artificial (ILIA) 2025
- Brechas digitales en América Latina
- Análisis de adopción de IA y desigualdades estructurales en la región
Bioética y Sociedad - “La Bioética ante la Inteligencia Artificial en Salud durante 2025” (Dic. 2025)
- Los cuatro principios éticos clásicos (autonomía, beneficencia, no maleficencia, justicia) aplicados a IA
- Ausencia de perspectivas no eurocéntricas en gobernanza de IA
March 21st. World Down Syndrome Day.
Caterina Moretti, ambassador for the Adecco Foundation and a worker with Down syndrome, asked an artificial intelligence a question: Why is inclusion so hard?
The AI answered. It spoke of cultural barriers, of prejudice, of lack of opportunity. Correct words. Well-structured. Politically impeccable.
But there’s a brutal irony that no one in Silicon Valley seems willing to confront: the very tool Caterina asked about inclusion was designed without including her.
The number that says everything
In 2019, the Canadian Down Syndrome Society ran a simple experiment: they tested how many words Google Home recognized when spoken by a person with Down syndrome.
The result: 30%.
Seven out of every ten words, lost. Not because the speaker lacked clarity. But because voice recognition algorithms were trained on millions of hours of audio from neurotypical voices. The voices of people with Down syndrome simply weren’t in the data.
This is not a minor technical detail. It is a design decision with real consequences.
Voice assistants — Alexa, Siri, Google Assistant — are sold as tools for autonomy. For people with limited mobility, with visual impairments, with conditions that make touchscreen use difficult, voice interaction isn’t a gadget: it’s access. It’s independence. It’s dignity.
And for millions of people with Down syndrome, that door is closed.
The gap Silicon Valley doesn’t calculate
There are approximately 6 million people with Down syndrome in the world. In Latin America, the prevalence is 1 in every 600-700 births. In Mexico, around 6,000 babies are born with trisomy 21 each year.
These communities are not a marginal niche. They are millions of people who use — or try to use — technology every day.
How many of the digital interfaces we use were designed with them in mind?
Banking apps require rapid reading of complex text. Government service platforms assume standard processing speeds. Chatbots respond in formal, abstract language. Forms have time limits. Videos don’t always have subtitles. Audio doesn’t always have transcripts.
In Latin America, where the digitization of basic services is accelerating rapidly — tax processes, social security, municipal services — digital exclusion isn’t an inconvenience. It’s the loss of access to rights.
AI didn’t design a barrier. It simply never designed a door.
The problem isn’t technical. It’s political.
When Google received the results of the Canadian experiment, it committed to adding 500 new voices of people with Down syndrome to its algorithms. A gesture. A promise.
But the right question isn’t whether Google can improve its model. The question is: why weren’t these voices included from the beginning?
The answer is systemic. The teams designing these systems are overwhelmingly neurotypical. Training datasets reflect the voices of those who built them. Cognitive diversity doesn’t appear in product roadmaps. Not because it’s impossible to include — but because no one put it on the agenda.
This isn’t a conspiracy. It’s something more dangerous: a normalized omission.
In the Latin American tech ecosystem — with fewer resources, greater dependence on foreign platforms, and less capacity to pressure global corporations — the problem is amplified. We don’t have the lobbying power. We don’t have accessibility standards with real teeth. We don’t have the institutional infrastructure that, in Europe or Canada, gets these conversations into product design.
The result: we import exclusionary technology and call it modernization.
“They only see Down syndrome. They don’t see me.”
A woman with Down syndrome once described how it feels when the world reduces her to her diagnosis:
“They only see Down syndrome. They don’t see me.”
She could have been talking about technology design.
When we build AI systems that don’t recognize certain voices, that don’t anticipate certain cognitive patterns, that don’t account for certain interaction rhythms — we are not being neutral. We are encoding a hierarchy of who matters.
And in that hierarchy, people with Down syndrome don’t appear. Not in the data. Not in design teams. Not in use cases. Not in product demos. Not in the democratization narratives that Silicon Valley exports to the entire world.
Every March 21st, the world fills with colorful socks and messages of inclusion. Tech companies publish posts. Algorithms generate politically correct statements when asked.
And meanwhile, the voice assistant still doesn’t understand Caterina.
The most powerful AI in human history is being built right now. It’s being trained on data. It’s being designed with values. Decisions are being made about who counts as a user and who doesn’t.
How many more voices have to fall outside that 30% before this is considered a design problem rather than a capacity issue?
What do you think?
REFERENCES AND SOURCES
Down syndrome data and prevalence:
World Health Organization (WHO) - Down Syndrome: facts and figures (2024 update)
- Global prevalence: 1 in 1,000-1,100 live births
- Global estimate: approximately 6 million people with Down syndrome
National Center for Gender Equity and Reproductive Health, Mexico (CNEGSR) - Trisomy 21 statistics in Mexico
- Approximately 6,000 births with Down syndrome per year in Mexico
- Prevalence: 1 in every 600-700 births in LATAM
Down Syndrome International - Global prevalence report (2023)
- Incidence data by region, including Latin America
Voice recognition and algorithmic exclusion:
Canadian Down Syndrome Society - Project Understood (2019)
- Documented experiment: Google Home recognizes only 30% of words from people with Down syndrome
- Initiative launched to include 500 new voices in Google’s algorithms
Chequeado (Argentina) - “Artificial intelligence and disability: when algorithms are tools of exclusion” (2020)
- Analysis of algorithmic barriers for people with disabilities in LATAM
- Interview with CONICET researcher on technological appropriation and disability
Mauro Alejandro Soto, CONICET - Doctoral research on digital technology appropriation by people with disabilities
- Analytical framework on algorithmic exclusion in the Latin American context
Inclusion, technology and design:
Adecco Foundation Spain - World Down Syndrome Day 2026 Report
- Case of Caterina Moretti, ambassador with Down syndrome, asking AI about inclusion
- Employability data: 129 people with Down syndrome supported in 2025
United Nations (UNRIC) - “Artificial intelligence and the inclusion of people with disabilities” (2024)
- International framework on AI and the rights of people with disabilities
ECLAC / Latin American Artificial Intelligence Index (ILIA) 2025
- Digital divides in Latin America
- Analysis of AI adoption and structural inequalities in the region
Bioética y Sociedad - “Bioethics and Artificial Intelligence in Health during 2025” (Dec. 2025)
- The four classic ethical principles (autonomy, beneficence, non-maleficence, justice) applied to AI
- Absence of non-Eurocentric perspectives in AI governance
