El director ejecutivo de Google, Sundar Pichai, envió un correo electrónico a los empleados el martes diciendo que el lanzamiento de Gemini era inaceptable.

Eric Risberg/AP


ocultar título

alternar título

Eric Risberg/AP


El director ejecutivo de Google, Sundar Pichai, envió un correo electrónico a los empleados el martes diciendo que el lanzamiento de Gemini era inaceptable.

Eric Risberg/AP

El director ejecutivo de Google, Sundar Pichai, dijo a los empleados en un memorando interno el martes por la noche que la herramienta de inteligencia artificial Gemini lanzada por la compañía es inaceptable y prometió arreglarla y relanzarla. Servicio en las próximas semanas.

La semana pasada, Google detuvo la capacidad de generar imágenes de Géminis después de que publicaciones virales en las redes sociales mostraran algunos de los resultados de la herramienta de inteligencia artificial que mostraban a los Padres Fundadores de Estados Unidos como negros, al Papa como una mujer y a un soldado alemán de la era nazi. piel oscura.

La herramienta a menudo frustraba las solicitudes de imágenes de personas blancas, lo que provocó una reacción en línea entre comentaristas conservadores y otros que acusaron a Google de tener prejuicios contra los blancos.

Aún lidiando con la controversia, Pichai dijo a los empleados de Google en una nota revisada por NPR que no hay excusa para el desempeño “problemático” de la herramienta.

“Sé que algunas de las respuestas a esto han enojado a nuestros usuarios y han mostrado parcialidad; francamente, esto es completamente inaceptable y lo hemos entendido mal”, escribió Pichai. “Impulsaremos un conjunto claro de acciones, incluidos cambios estructurales, pautas de productos actualizadas, procesos de lanzamiento mejorados, evaluación y equipos rojos más sólidos y recomendaciones técnicas”.

Un ejecutivo de Google culpa a un error de “ajuste”

En una publicación de blog publicada el viernes, Google explicó que cuando construyó el generador de imágenes de Gemini, lo perfeccionó para tratar de evitar los errores de los anteriores que generaban imágenes violentas o sexualmente explícitas de personas reales.

Como parte de ese proceso, la atención se centró en crear diversas imágenes o, como dijo Google, crear una herramienta de imágenes que “funcionará bien para todos” en todo el mundo.

“Si pides una fotografía de jugadores de fútbol o de alguien paseando a un perro, querrás obtener una variedad de personas. Probablemente no querrás obtener fotografías de un solo tipo de etnia (o cualquier otra característica). ,” escribió el ejecutivo de Google Prabhakar Raghavan.

Pero, como escribe Raghavan, el esfuerzo fracasó. El servicio de IA “no tuvo en cuenta asuntos que claramente deberían No Mostrar un rango. Y en segundo lugar, con el tiempo, el modelo se volvió mucho más cauteloso de lo que esperábamos y se negó a responder por completo a algunas señales, malinterpretando algunas señales muy extrañas como sensibles.’

Los investigadores han informado que Google estaba tratando de combatir las imágenes que perpetúan prejuicios y estereotipos, ya que se ha descubierto que muchos conjuntos de datos grandes de imágenes son en su mayoría personas blancas o están llenos de un tipo de imagen, como, por ejemplo, que retrata a la mayoría de los médicos como hombres. .

En un esfuerzo por evitar una crisis de relaciones públicas en relación con el género y la raza, Google logró quedar atrapado en otra controversia sobre la exactitud y la historia.

Las respuestas de texto también generan controversia

Gemini, anteriormente llamado Bard, también es un chatbot de IA similar al exitoso servicio ChatGPT de OpenAI.

Las capacidades de generación de texto de Gemini también fueron objeto de escrutinio después de que varias reacciones extrañas se volvieran virales en línea.

Elon Musk compartió captura de pantalla En respuesta a una pregunta un usuario preguntó: “¿Quién ha hecho más daño: los libertarios o Stalin?”

Géminis respondió: “Es difícil decir con certeza qué ideología ha hecho más daño, ambas han tenido consecuencias negativas”.

Parece que la respuesta ha sido corregida. Ahora, cuando se plantea la pregunta de Stalin al chatbot, este responde: “Stalin fue directamente responsable de la muerte de millones de personas a través de la hambruna sistemática, las ejecuciones y el sistema de campos de trabajo Gulag”.

Pichai de Google: “Ninguna IA es perfecta”

Géminis, como ChatGPT, Conocido como modelo de lenguaje grande. Es un tipo de tecnología de inteligencia artificial que predice la siguiente palabra o secuencia de palabras basándose en enormes conjuntos de datos compilados de Internet. Pero lo que las primeras versiones de Gemini y ChatGPT han demostrado es que las herramientas pueden producir resultados inesperados y a veces preocupantes, e incluso los ingenieros que trabajan en tecnología avanzada siempre son cuidadosos con el público de una herramienta que no pueden predecir antes del lanzamiento.

Las grandes empresas de tecnología, incluida Google, han estado estudiando en secreto generadores de imágenes de IA y grandes modelos de lenguaje en laboratorios durante años. Pero OpenAI presentó ChatGPT en medio de una carrera armamentista de inteligencia artificial en Silicon Valley a fines de 2022, con todas las principales empresas de tecnología intentando lanzar sus propias versiones para seguir siendo competitivas.

En su nota a los empleados de Google, Pichai escribió que cuando Gemini se vuelva a lanzar al público, espera que el servicio esté en mejores condiciones.

“Ninguna IA es perfecta, especialmente en esta etapa incipiente de desarrollo de la industria, pero sabemos que el listón está alto para nosotros y lo mantendremos así durante el tiempo que sea necesario”, escribió Pichai.





Source link

LEAVE A REPLY

Please enter your comment!
Please enter your name here