
¿Cuál es el problema?
La IA ya se usa para muchas cosas: contratar personas, decidir si alguien califica para un crédito, diagnosticar enfermedades, etc. Pero muchas veces, la IA puede ser injusta sin que nos demos cuenta.
Esto pasa porque estas tecnologías aprenden de datos que reflejan la realidad, y si esa realidad tiene desigualdades o estereotipos, la IA los copia. Por ejemplo:
- Una IA puede creer que ciertos trabajos solo son para hombres o para mujeres.
- Puede tratar peor a personas de ciertas razas o nacionalidades.
- Puede funcionar peor si se usa en otro idioma que no sea el inglés.

¿Qué tiene que ver el idioma?
Muchos sistemas de IA están entrenados principalmente en inglés. Cuando se traducen a otros idiomas, se pierden matices culturales o significados, lo que puede hacer que los sistemas sean injustos o incluso ofensivos.
¿Qué es SHADES?
SHADES es una herramienta (en realidad, un conjunto de datos) que ayuda a descubrir estos sesgos. Se creó para detectar estereotipos dañinos en modelos de IA en varios idiomas y culturas, no solo en inglés.
Incluye:
- Más de 300 estereotipos reales de distintas regiones del mundo.
- Información sobre a qué grupo afecta (como género, raza, etc.) y qué daño puede causar.
- Plantillas de prueba para evaluar si la IA repite esos estereotipos.
¿Por qué es útil SHADES?
- Funciona en 16 idiomas y tiene en cuenta el contexto cultural.
- Ayuda a los desarrolladores de tecnología a ver dónde sus sistemas pueden estar siendo injustos.
- Permite mejorar los sistemas de IA para que sean más equitativos e inclusivos.
- Es gratuito y abierto al público, lo que significa que cualquier persona u organización lo puede usar.

¿Qué se recomienda hacer?
- Que los creadores de tecnologías usen SHADES para revisar si sus sistemas son justos.
- Que las empresas prueben sus programas en diferentes idiomas y culturas antes de lanzarlos.
- Que se trabaje en conjunto para ampliar esta herramienta y adaptarla a más regiones del mundo.
La inteligencia artificial puede parecer neutral, pero si no se revisa con cuidado, puede repetir y reforzar prejuicios existentes, especialmente en idiomas distintos al inglés.
SHADES es una herramienta valiosa que ayuda a que la IA sea más justa y respetuosa con todas las culturas.