ANÁLISIS Y OPINIÓN
El «Futuro Brillante» de la IA: Cuando los algoritmos deciden quién merece trabajar
Por Alejandro Urueña, columnista de Mundo Gremial

Un tribunal federal otorga certificación preliminar colectiva contra Workday, Inc. por supuesta discriminación etaria mediante inteligencia artificial, exponiendo los peligros ocultos del reclutamiento automatizado.
La resolución que Expone la Cara Oculta de la «Revolución» Tecnológica.
El pasado 16 de mayo de 2025, la jueza Rita F. Lin del Tribunal Federal del Distrito Norte de California otorgó una certificación colectiva preliminar en el caso: Derek Mobley vs. Workday, Inc. (Case No. 23-cv-00770-RFL), una decisión que evidencia el panorama en la selección de skills con herramientas de inteligencia artificial en el ámbito laboral para el acceso a los puestos de trabajo.
Cuando la eficiencia se vuelve discriminación
Workday, Inc., una empresa que cuya actividad resalta la «gestión inteligente de recursos humanos» mejor llamada “gestión de conocimientos”, enfrenta una demanda, debido a la metodología en el uso de sistema de inteligencia artificial para filtros de hojas de vida, aceptado por empresas en múltiples industrias,y que habría discriminado sistemáticamente contra solicitantes mayores de 40 años, convirtiendo la búsqueda de empleo en una lotería algorítmica donde la edad determinaría el resultado antes de que cualquier humano evalúe las cualidades.
Derek Mobley, el demandante principal, solicitó la aplicación de posiciones de trabajo en varias oportunidades (más de 100 según la resolución) a través de la plataforma de Workday desde 2017. El resultado: cero empleos obtenidos. Su experiencia no es única; cuatro demandantes adicionales, todos mayores de 40 años, reportan haber enviado «cientos de aplicaciones» con tasas de rechazo casi del 100%.
La arquitectura de la exclusión digital
La certificación preliminar colectiva revela detalles inquietantes sobre el funcionamiento interno de los sistemas de Workday:
Candidate Skills Match (CSM)
Esta herramienta utiliza modelos de inteligencia artificial para «extraer habilidades» de las ofertas de empleo y los materiales del solicitante, generando puntuaciones clasificadas como ‘fuerte,’ ‘bueno,’ ‘justo,’ ‘bajo,’ ‘pendiente,’ e ‘incapaz de puntuar.’ La pregunta perturbadora: ¿qué factores no declarados influyen en estas clasificaciones?
Workday Assessment Connector (WAC)
Descrito como un sistema que utiliza aprendizaje automático para «observar que un empleador-cliente desfavorece a ciertos candidatos que son miembros de una clase protegida, y disminuir la tasa en la que recomienda a esos candidatos. En otras palabras: un sistema que habría sido diseñado para perpetuar y automatizar los prejuicios existentes.
Los riesgos del nuevo paradigma cognitivo – organizacional de la IA
La aceptación preliminar de la apertura de esta acción expone riesgos fundamentales que trascienden este caso específico:
- Discriminación a Escala Industrial
Workday procesa millones de aplicaciones. Según la empresa, durante el período en cuestión se procesaron «1.1 billones de aplicaciones.» Si el sistema discrimina incluso a un pequeño porcentaje, las víctimas se cuentan en millones.
- Opacidad Algorítmica
Los solicitantes nunca supieron que estaban siendo evaluados por IA, mucho menos los criterios utilizados. Esta «caja negra» digital opera sin supervisión, convirtiendo decisiones de vida en procesos automatizados invisibles.
- Perpetuación de Sesgos Históricos
Los sistemas de IA según el modelo aprenden de datos históricos sin perjuicio de que ya contienen sesgos propios del ser humano y otros que no se aclaran debido a la falta de trazabilidad y explicabilidad. El Workday Assessment Connector («WAC») de Workday ejemplificaría esto al «aprender» las preferencias discriminatorias y amplificarlas.
- Erosión del debido proceso
La automatización elimina la posibilidad de apelación o explicación. Los candidatos rechazados reciben emails automáticos sin posibilidad de comprender o contestar la decisión.
Orden que concede la certificación colectiva preliminar: Una señal de alarma
La jueza Lin fue contundente en su línea de análisis, rechazando los argumentos de Workday sobre la supuesta «neutralidad» de sus sistemas. Estableció que:
«El colectivo propuesto es similarmente situado porque Mobley ha alegado sustancialmente la existencia de una política unificada: el uso del sistema de recomendaciones de IA de Workday para puntuar, ordenar, clasificar o cribar a los solicitantes.»
La decisión es particularmente significativa porque aplica un estándar de «plausibilidad» en lugar de requerir prueba completa en esta etapa preliminar, facilitando que casos similares avancen en el futuro. Esto significa que pueden notificar a otras personas que podrían estar afectadas por la misma supuesta discriminación, para que se unan a la demanda.
Implicaciones para el futuro del trabajo
Esta sentencia marca un punto de inflexión en la regulación de la IA en el empleo. Las implicaciones son vastas:
- Para las empresas tecnológicas: Responsabilidad legal por los resultados de sus algoritmos, no solo por su diseño
- Para los empleadores: Necesidad de auditorías regulares de sus sistemas de IA para detectar sesgos
- Para los trabajadores: Establecimiento de precedentes para impugnar decisiones algorítmicas discriminatorias
- Para los reguladores: Presión para desarrollar marcos normativos específicos para la IA en recursos humanos y no caer en la ilusión de la regulación.
La paradoja de la «Inteligencia» Artificial
El caso Mobley vs. Workday revela una paradoja fundamental: sistemas promocionados como «inteligentes» y «objetivos» pueden ser profundamente discriminatorios y sesgados. La supuesta eficiencia de la automatización viene con un costo humano que recién comienza a ser cuantificado.
Hacia un futuro (verdaderamente) inteligente
Mientras Workday y empresas similares enfrentan un escrutinio legal creciente, la industria tecnológica debe confrontar una pregunta incómoda: ¿estamos construyendo un futuro más equitativo o simplemente digitalizando nuestros prejuicios más antiguos?
La respuesta a esta pregunta determinará si la revolución de la IA representa progreso genuino o simplemente discriminación con mejor marketing.
Lecciones del pasado en Argentina: El Precedente Freddo
El caso Workday podría encontrar una analogía en un precedente de relieve en el fallo del 16 de diciembre de 2002, donde la Fundación Mujeres en Igualdad vs. Freddo SA, la Cámara Nacional en lo Civil implementó discriminación inversa para corregir desigualdades sistemáticas en la contratación La analogía debería ser clara, más allá de si la discriminación opera mediante decisiones humanas tradicionales o algoritmos de inteligencia artificial, los tribunales deberían evaluar resultados, “La discriminación no se encuentra en las normas sino en los hechos”. Cuando los hechos demuestran patrones sistemáticos de exclusión ya sea por género en heladerías o por edad en las últimas y crecientes tecnologías el derecho debería intervenir para corregir la desigualdad estructural, independientemente de la sofisticación tecnológica del método discriminatorio, sin perjuicio de comprobar su procesamiento.
Alejandro Urueña, Procurador. Abogado. Especialista en Derecho del Trabajo, empleo e innovación del mundo del trabajo. Diplomado en Derecho del Trabajo y Relaciones Laborales, Universidad Austral; Diplomado en Derecho 4.0, Universidad Austral; Magister en Derecho del Trabajo y Relaciones Laborales, Universidad Austral (T.P); Actualmente cursando Posgrado de Inteligencia Artificial y Derecho, I.A.L.A.B, U.B.A. y Posgrado en Metaverso I.A.L.A.B, U.B.A.-
