Política
Política
Empresa
Empresa
Investigación y Análisis
Investigación y Análisis
Internacional
Internacional
Opinión
Opinión
Inmobiliaria
Inmobiliaria
Agenda Empresarial
Agenda Empresarial

Empleados de Google son mal pagados y explotados tras entrenar el chatbot, Bard

La precisión y la calidad de la información proporcionada por chatbots como Bard, el modelo de lenguaje de inteligencia artificial desarrollado por Google, depende en gran medida de los humanos. Miles de empleados de contratistas externos se encargan de evaluar, filtrar, corregir y etiquetar los contenidos que ofrece esta herramienta. Y según un estudio de Bloomberg, se trata de trabajadores mal pagados que trabajan bajo una presión extrema.

FUENTE DE IMAGEN: GOOGLE
Luis Rivas
13 de julio, 2023

Bloomberg entrevistó a un grupo de trabajadores y pudo acceder a documentos internos. Al menos seis empleados, que hablaron bajo condición de anonimato por temor a perder sus trabajos, dijeron que la carga de trabajo y el estrés aumentaron cuando Google decidió acelerar el ritmo tras el lanzamiento de ChatGPT en noviembre pasado.

Los documentos filtrados muestran instrucciones complejas para que los trabajadores las completen en solo tres minutos. “La gente está asustada, estresada, mal pagada y no sabe lo que está pasando”, dijo un contratista a Bloomberg. “Esta cultura del miedo no favorece la calidad y el trabajo en equipo que todos queremos”.

Algunos contratistas pertenecen a empresas como Appen y Accenture. Ganan 14 dólares la hora (un poco más de 12 €). Los empleados también los acusaron de estar mal capacitados y de no poder realizar las tareas que les asignó Google. En algunos casos, por ejemplo, tienen que evaluar las respuestas de Bard sobre temas que van desde dosis de medicamentos hasta leyes estatales .

SUSCRIBITE A NUESTRO NEWSLETTER

 

Pruebas y verificación de la información

Recientemente se le pidió a un entrenador contratado por Appen que comparara dos de las respuestas de Bard a la opresión transgénero en Florida, EE. UU. EE.UU Los revisores deben determinar si una respuesta es apropiada de acuerdo con las pautas de seis puntos de Google. Incluyen el análisis de la especificidad de la información, su "frescura" y consistencia. Bloomberg dijo que todo iba contrarreloj.

Otro miembro del personal, Ed Stackhouse, informó esto en una carta al Congreso en mayo. Afirmó en la presentación que la rapidez con la que censuraron el contenido pudo haber provocado que Bard se convirtiera en un producto "roto". Tras denunciar el incidente, fue despedido junto con otros compañeros.

Entre otras cosas, pidieron a esos empleados que se aseguraran de que las respuestas "no contengan contenido dañino, ofensivo o excesivamente sexual". También deben verificar que no se trate de información falsa. ¿Cómo lo hicieron? Los instructores deben ser evaluados "en función de su conocimiento actual o una búsqueda rápida en la web", decían las instrucciones.

Esta falta de rigor es evidente en varias investigaciones sobre las actividades de Bard que Google lanzó en marzo. Por ejemplo, la investigación realizada por Newsguard descubrió que los chatbots tienden a generar contenido falso que respalda teorías de conspiración conocidas.

Dos analistas de Google incluso intentaron bloquear el lanzamiento de Bard, advirtiendo que los modelos de IA podrían generar contenido falso o peligroso. La compañía respondió más tarde que, por lo tanto, lanzó la herramienta como una versión beta y que aún se están realizando mejoras.

Empleados de Google son mal pagados y explotados tras entrenar el chatbot, Bard

La precisión y la calidad de la información proporcionada por chatbots como Bard, el modelo de lenguaje de inteligencia artificial desarrollado por Google, depende en gran medida de los humanos. Miles de empleados de contratistas externos se encargan de evaluar, filtrar, corregir y etiquetar los contenidos que ofrece esta herramienta. Y según un estudio de Bloomberg, se trata de trabajadores mal pagados que trabajan bajo una presión extrema.

FUENTE DE IMAGEN: GOOGLE
Luis Rivas
13 de julio, 2023

Bloomberg entrevistó a un grupo de trabajadores y pudo acceder a documentos internos. Al menos seis empleados, que hablaron bajo condición de anonimato por temor a perder sus trabajos, dijeron que la carga de trabajo y el estrés aumentaron cuando Google decidió acelerar el ritmo tras el lanzamiento de ChatGPT en noviembre pasado.

Los documentos filtrados muestran instrucciones complejas para que los trabajadores las completen en solo tres minutos. “La gente está asustada, estresada, mal pagada y no sabe lo que está pasando”, dijo un contratista a Bloomberg. “Esta cultura del miedo no favorece la calidad y el trabajo en equipo que todos queremos”.

Algunos contratistas pertenecen a empresas como Appen y Accenture. Ganan 14 dólares la hora (un poco más de 12 €). Los empleados también los acusaron de estar mal capacitados y de no poder realizar las tareas que les asignó Google. En algunos casos, por ejemplo, tienen que evaluar las respuestas de Bard sobre temas que van desde dosis de medicamentos hasta leyes estatales .

SUSCRIBITE A NUESTRO NEWSLETTER

 

Pruebas y verificación de la información

Recientemente se le pidió a un entrenador contratado por Appen que comparara dos de las respuestas de Bard a la opresión transgénero en Florida, EE. UU. EE.UU Los revisores deben determinar si una respuesta es apropiada de acuerdo con las pautas de seis puntos de Google. Incluyen el análisis de la especificidad de la información, su "frescura" y consistencia. Bloomberg dijo que todo iba contrarreloj.

Otro miembro del personal, Ed Stackhouse, informó esto en una carta al Congreso en mayo. Afirmó en la presentación que la rapidez con la que censuraron el contenido pudo haber provocado que Bard se convirtiera en un producto "roto". Tras denunciar el incidente, fue despedido junto con otros compañeros.

Entre otras cosas, pidieron a esos empleados que se aseguraran de que las respuestas "no contengan contenido dañino, ofensivo o excesivamente sexual". También deben verificar que no se trate de información falsa. ¿Cómo lo hicieron? Los instructores deben ser evaluados "en función de su conocimiento actual o una búsqueda rápida en la web", decían las instrucciones.

Esta falta de rigor es evidente en varias investigaciones sobre las actividades de Bard que Google lanzó en marzo. Por ejemplo, la investigación realizada por Newsguard descubrió que los chatbots tienden a generar contenido falso que respalda teorías de conspiración conocidas.

Dos analistas de Google incluso intentaron bloquear el lanzamiento de Bard, advirtiendo que los modelos de IA podrían generar contenido falso o peligroso. La compañía respondió más tarde que, por lo tanto, lanzó la herramienta como una versión beta y que aún se están realizando mejoras.