En resumen

Los reguladores estatales proponen reglas para evaluar a los trabajadores y solicitantes de empleo con IA.

Lea esta historia en Español

Los reguladores de California están tomando medidas para restringir la forma en que los empleadores pueden usar la inteligencia artificial para evaluar a los trabajadores y solicitantes de empleo, advirtiendo que el uso de la IA para medir el tono de voz, las expresiones faciales y los tiempos de reacción puede ir en contra de la ley.

El borrador de las regulaciones dice que si las empresas utilizan sistemas automatizados para limitar o priorizar a los solicitantes según el embarazo, el origen nacional, la religión o los antecedentes penales, eso es discriminación.

El público tiene hasta el 18 de julio para comentar sobre el reglas propuestas. Después de eso, los reguladores del Departamento de Derechos Civiles de California pueden modificarlos y eventualmente aprobarlos, sujetos a una revisión final por parte de un juez de derecho administrativo, culminando un proceso que comenzó hace tres años.

Las reglas rigen los llamados “sistemas de decisión automatizados”: inteligencia artificial y otros procesos computarizados, incluidos cuestionarios, juegos, selección de currículums e incluso colocación de publicidad. Las regulaciones dicen que el uso de tales sistemas para analizar características físicas o tiempos de reacción puede constituir una discriminación ilegal. Los sistemas no se pueden utilizar en absoluto, dicen las nuevas reglas, si tienen un “impacto adverso” en los candidatos en función de ciertas características protegidas.

El borrador de las reglas también requiere que las empresas que venden servicios predictivos a los empleadores mantengan registros durante cuatro años para responder a las demandas por discriminación.

Es necesaria una ofensiva en parte porque, si bien las empresas quieren automatizar partes del proceso de contratación, "esta nueva tecnología puede oscurecer la responsabilidad y hacer más difícil discernir quién es responsable cuando una persona es sometida a una toma de decisiones discriminatoria", dijo Ken Wang, un asociado de políticas de la Asociación de Abogados Laborales de California.

El proyecto de reglamento deja claro que los proveedores de servicios externos son agentes del empleador y responsabilizan a los empleadores.

El Departamento de Derechos Civiles de California comenzó a explorar cómo los algoritmos, un tipo de sistema de decisión automatizado, pueden afectar las oportunidades laborales y automatizar la discriminación en el lugar de trabajo. en abril de 2021. En aquel momento, Fondo para personas autistas de color La fundadora Lydia XZ Brown advirtió a la agencia sobre el daño que los algoritmos de contratación pueden infligir a las personas con discapacidades. Brown dijo a CalMatters que si el nuevo borrador de reglas ofrecerá una protección significativa depende de cómo se implementen y se hagan cumplir.

Investigadores, defensores y periodistas han acumulado un conjunto de pruebas de que los modelos de IA pueden automatizar la discriminación, incluso en el lugar de trabajo. El mes pasado, la Unión Estadounidense de Libertades Civiles presentó una queja ante la Comisión Federal de Comercio alegando que el software de detección de currículums fabricado por la empresa Aon discrimina a las personas por motivos de raza y discapacidad a pesar de la afirmación de la empresa de que su IA está "libre de prejuicios". Una evaluación de la tecnología GPT-3.5 de la empresa líder en inteligencia artificial OpenAI encontró que el modelo de lenguaje grande Puede exhibir prejuicios raciales cuando se utiliza para examinar automáticamente los currículums de los solicitantes de empleo.. Aunque la empresa utiliza filtros para evitar que el modelo de lenguaje produzca lenguaje tóxico, pruebas internas de GPT-3 También surgieron prejuicios raciales, de género y religiosos.

"Esta nueva tecnología puede oscurecer la responsabilidad".

Ken Wang, asociado de políticas de la Asociación de Abogados Laborales de California

Es comprensible que proteger a las personas del sesgo automatizado atraiga mucha atención, pero a veces contratar software que se comercializa como inteligente toma decisiones tontas. Usar gafas, un pañuelo en la cabeza o tener una estantería en el fondo de una entrevista de trabajo en vídeo puede predicciones sesgadas de personalidad, según un informe de investigación de la emisora pública alemana Bayerischer Rundfunk. Por lo que puede la fuente que elige un solicitante de empleo al enviar un currículum, según investigadores de la Universidad de Nueva York.

Las regulaciones propuestas por California son las últimas de una serie de iniciativas destinadas a proteger a los trabajadores contra las empresas que utilizan formas nocivas de IA.

En 2021, los legisladores de la ciudad de Nueva York aprobaron una ley para proteger a los solicitantes de empleo de la discriminación algorítmica en la contratación, aunque investigadores de la Universidad de Cornell y Consumer Reports concluyeron recientemente que la ley ha sido ineficaz. Y en 2022, la Comisión de Igualdad de Oportunidades en el Empleo y el Departamento de Justicia de EE. UU. aclararon que los empleadores debe cumplir con la Ley de Estadounidenses con Discapacidades al utilizar la automatización durante la contratación.

Mientras tanto, la Agencia de Protección de la Privacidad de California está considerando proyectos de reglas que, entre otras cosas, define qué información los empleadores pueden recopilar sobre contratistas, solicitantes de empleo y trabajadores, permitiéndoles ver qué datos recopilan los empleadores y optar por no participar en dicha recopilación o solicitar una revisión humana.

La legislación pendiente facultaría aún más a la fuente de las revisiones del borrador, el Departamento de Derechos Civiles de California. Proyecto de ley 2930 de la Asamblea permitiría al departamento exigir evaluaciones de impacto a las empresas y agencias estatales que utilizan IA para protegerse contra la discriminación automatizada.

Fuera del gobierno, los líderes sindicales argumentan cada vez más que los trabajadores de base deberían poder opinar sobre la eficacia y los daños de la IA para proteger al público. Los representantes laborales han tenido conversaciones con funcionarios de California sobre proyectos específicos a medida que experimente con cómo usar la IA.

Khari Johnson is part of the tech team and is CalMatters’ first tech reporter. He has covered artificial intelligence for nearly a decade and previously worked at WIRED, VentureBeat, and Imperial Beach...