¿Qué significa que una tecnología sea inclusiva?
Que todas las personas, sin importar su condición, puedan acceder y beneficiarse de la tecnología.
¿Qué significa el término “sesgo algorítmico”?
Es cuando un sistema de IA toma decisiones injustas debido a sesgos en su programación o datos.
¿Qué red social fue criticada por sesgos raciales en su sistema de moderación?
Facebook (ahora Meta), por moderar más estrictamente contenido de personas negras.
¿Qué pasa si la IA se entrena solo con rostros de personas blancas?
La IA tendrá dificultades para reconocer rostros no blancos, generando errores graves.
¿Qué valor ético debería guiar el diseño de una IA?
La equidad o justicia social.
¿Qué grupos suelen ser excluidos por falta de acceso a IA?
Personas en situación de pobreza, zonas rurales, personas mayores o con discapacidad.
¿Qué tipo de datos puede generar decisiones injustas?
Datos históricos con sesgos, datos incompletos o poco representativos.
¿Qué pasó con el algoritmo de reincidencia usado en EE.UU. para sentencias?
El algoritmo COMPAS predecía reincidencia con más errores en personas afroamericanas.
¿Qué crítica hizo Joy Buolamwini a sistemas de reconocimiento facial?
Que los sistemas de IA eran menos precisos al identificar rostros de mujeres y personas negras.
¿Qué es la transparencia algorítmica?
Poder entender cómo y por qué un algoritmo tomó cierta decisión.
Menciona un ejemplo de herramienta IA diseñada para personas con discapacidad.
Lector de pantalla para personas con discapacidad visual (como JAWS o NVDA).
¿Qué ejemplo de discriminación algorítmica se presentó en el curso?
El caso de reconocimiento facial que identificaba mal a personas de piel oscura.
Menciona un ejemplo de IA que generó controversia por discriminación.
El chatbot Tay de Microsoft, que aprendió lenguaje ofensivo en pocas horas.
¿Cómo se refleja el sesgo de género en asistentes virtuales?
Que suelen ser mujeres, obedientes y pasivas, lo que refuerza estereotipos de género.
¿Qué rol tienen los ciudadanos en exigir una IA justa?
Participar activamente en debates, exigir transparencia y denunciar injusticias.
Menciona tres barreras que enfrentan las zonas rurales en acceso a tecnología.
Falta de infraestructura, baja conectividad, y poca capacitación digital.
¿Qué responsabilidad tiene una empresa ante una IA sesgada?
Revisar y corregir el sistema; garantizar transparencia y rendición de cuentas.
¿Qué país ha iniciado marcos legales específicos para mitigar estos problemas?
La Unión Europea, con su propuesta de AI Act.
¿Por qué importa la diversidad en equipos que diseñan IA?
Porque permite detectar y prevenir sesgos desde la etapa de diseño y entrenamiento del sistema.
¿Cómo podría la educación ayudar a mitigar la exclusión tecnológica?
Enseñando pensamiento crítico, alfabetización digital y ética tecnológica.
¿Qué es la “brecha digital”?
La desigualdad entre quienes tienen acceso y habilidades digitales y quienes no.
¿Qué puede pasar si una IA de contratación discrimina por género?
Puede dejar fuera a candidatas calificadas, reforzando estereotipos y desigualdad laboral.
¿Qué implica “colonialismo digital” en el contexto africano?
Imposición de modelos tecnológicos y éticos occidentales en África sin considerar sus contextos culturales.
¿Qué impacto tiene una IA sesgada en mujeres trans o no binarias?
Pueden ser ignoradas o clasificadas erróneamente, lo que afecta su acceso a servicios o derechos.
¿Qué estrategias ayudan a reducir el sesgo en modelos de IA?
Diversidad en los equipos, auditorías constantes, y uso de datos equilibrados y representativos.