Denver– Si bien la inteligencia artificial acaparó los titulares con ChatGPIT, entre bastidores la tecnología se ha infiltrado silenciosamente en la vida cotidiana: examinando currículums laborales, solicitudes de alquiler de apartamentos e incluso programando atención médica en algunos casos.

Si bien se ha descubierto que muchos sistemas de inteligencia artificial discriminan a favor de determinadas razas, géneros o ingresos, existe poca supervisión gubernamental.

Los legisladores de al menos siete estados están realizando importantes cambios legislativos para regular el sesgo en la inteligencia artificial, llenando el vacío dejado por la inacción del Congreso. Estas propuestas son algunos de los primeros pasos en una discusión de décadas sobre cómo equilibrar los beneficios de esta nueva y oscura tecnología con sus riesgos ampliamente documentados.

“La IA realmente impacta cada parte de tu vida, lo sepas o no”, dijo Suresh Venkatasubramanian, profesor de la Universidad de Brown y coautor del proyecto de la Casa Blanca para una Declaración de Derechos de la IA.

“Ahora, si todos funcionan correctamente no notarás ninguna diferencia. Pero no hacen eso”.

El éxito o el fracaso dependerán de legisladores que aborden problemas complejos mientras interactúan con una industria que vale cientos de miles de millones de dólares y se mueve a una velocidad que se mide mejor en años luz.

De los casi 200 proyectos de ley relacionados con la IA presentados en el estado el año pasado, sólo una docena se convirtieron en ley, según The Software Alliance, una BSA que ejerce presión en nombre de las empresas de software.

Los más de 400 proyectos de ley relacionados con la IA que se debatieron este año tenían como objetivo en gran medida regular pequeñas partes de la IA. Esto incluye apuntar a alrededor de 200 deepfakes, incluidas propuestas para evitar que deepfakes obscenos como el de Taylor Swift inunden las redes sociales. Por ejemplo, otros están intentando controlar los chatbots, como ChatGPT, para asegurarse de que no violen las instrucciones para fabricar bombas.

Son independientes de siete proyectos de ley estatales que se aplicarían en todas las industrias para regular la discriminación por IA (uno de los problemas más controvertidos y complejos de la tecnología) que se están debatiendo desde California hasta Connecticut.

Quienes estudian la propensión de la IA a discriminar dicen que los estados ya están atrasados ​​en el establecimiento de barreras de seguridad. El uso de la IA para tomar decisiones importantes –lo que el proyecto de ley llama “herramientas de decisión automatizadas”– está muy extendido pero en gran medida oculto.

Se estima que aproximadamente el 83% de los empleadores utilizan algoritmos para ayudar en la contratación; Según la Comisión de Igualdad de Oportunidades en el Empleo, es del 99% para las empresas Fortune 500.

Sin embargo, la mayoría de los estadounidenses no son conscientes de que se están utilizando estas herramientas, según muestra una encuesta de Pew Research, y mucho menos de si el sistema está sesgado.

Una IA puede aprender prejuicios a través de los datos con los que está entrenada, generalmente datos históricos que pueden contener caballos de Troya de discriminación pasada.

Hace aproximadamente una década se descubrió que Amazon había sesgado su algoritmo de contratación a favor de los candidatos masculinos. La IA fue entrenada para evaluar nuevos currículums aprendiendo de currículums anteriores, en su mayoría solicitantes masculinos. Aunque el algoritmo no conocía el género de los solicitantes, degradó los currículums que contenían la palabra “mujeres” o enumeró las universidades para mujeres, en parte porque no estaban representadas en los datos históricos de los que obtuvo información.

“Si estás dejando que la IA aprenda de las decisiones que los gerentes existentes han tomado históricamente, y si esas decisiones históricamente han favorecido a algunas personas y desfavorecido a otras, eso es lo que la tecnología aprenderá”, dijo Klass. -Christine Weber, la abogada en la acción , dijo que la demanda alegaba que el sistema de inteligencia artificial que califica a los solicitantes de alquiler discriminaba a los que eran negros o hispanos.

Los documentos judiciales describen a una de las demandantes en la demanda, Mary Louise, una mujer negra, que solicitó alquilar un apartamento en Massachusetts y recibió una respuesta misteriosa: “Evaluación de todos los inquilinos potenciales. El servicio de terceros que utilizamos ha rechazado su alquiler”. “.

Cuando Lewis presentó dos referencias de propietarios para demostrar que había pagado el alquiler anticipadamente o a tiempo durante 16 años, según los registros judiciales, recibió otra respuesta: “Desafortunadamente, no aceptamos apelaciones… y los inquilinos no pueden anular los resultados de la investigación”.

Los proyectos de ley apuntan en parte a la falta de transparencia y rendición de cuentas: el primer esfuerzo integral para regular el sesgo de la IA en el sector privado, luego de la fallida propuesta de California el año pasado.

Según los proyectos de ley, las empresas que utilicen estas herramientas de decisión automatizadas tendrían que realizar “evaluaciones de impacto”, incluido un análisis de cómo la IA interviene en las decisiones, los datos recopilados y los riesgos de discriminación, así como una explicación de las salvaguardias de la empresa. incluido. Dependiendo del proyecto de ley, esas evaluaciones se presentarían al estado o los reguladores podrían solicitarlas.

Algunos proyectos de ley también exigirían que las empresas informen a los clientes que se utilizará la IA en la toma de decisiones y les permitirían optar por no participar con ciertas salvedades.

Craig Albright, vicepresidente senior de relaciones gubernamentales de Estados Unidos en el grupo de presión de la industria BSA, dijo que sus miembros en general están a favor de algunas de las medidas propuestas, como las evaluaciones de impacto.

“La tecnología avanza más rápido que la ley, pero conocer realmente la ley tiene ventajas. Porque entonces (las empresas) entienden cuáles son sus responsabilidades, los consumidores pueden tener más confianza en la tecnología”, dijo Albright.

Pero ha sido un comienzo decepcionante para la ley. Un proyecto de ley en el estado de Washington ya fracasó en la comisión, y también falleció una propuesta de California presentada en 2023, en la que se basan varias propuestas existentes.

La asambleísta de California Rebecca Bauer-Kahn ha reformulado su legislación que fracasó el año pasado, con el apoyo de algunas empresas tecnológicas como Workday y Microsoft, para eliminar el requisito de que las empresas presenten periódicamente sus evaluaciones de impacto. Otros estados donde se han presentado o se espera que se presenten proyectos de ley son Colorado, Rhode Island, Illinois, Connecticut, Virginia y Vermont.

Venkatasubramaniam, de la Universidad de Brown, dijo que si bien estos proyectos de ley son un paso en la dirección correcta, las evaluaciones de impacto y su capacidad para detectar sesgos siguen sin estar claras. Sin un mayor acceso a los informes (que es la limitación de muchos proyectos de ley), también es difícil saber si una persona ha sido discriminada por la IA.

Una forma más exhaustiva pero precisa de identificar la discriminación requeriría auditorías de sesgo (pruebas para determinar si una IA discrimina o no) y hacer públicos los resultados. Aquí es donde la industria responde, argumentando que esto expondría secretos comerciales.

Los requisitos para probar periódicamente los sistemas de IA no figuran en la mayoría de las propuestas legislativas y, en casi todas ellas, todavía queda un largo camino por recorrer. Aún así, esto es sólo el comienzo de una lucha entre legisladores y votantes sobre lo que se está construyendo y si esta tecnología omnipresente permanecerá.

“Cubre todo en tu vida. Sólo por eso debería importarte”, dijo Venkatasubramaniam.

,

El periodista de Associated Press Tran Nguyen en Sacramento, California, contribuyó.



Source link

LEAVE A REPLY

Please enter your comment!
Please enter your name here