El lunes YouTube anunció que contrataría a miles de personas para funcionar como moderadores de contenido en un intento por luchar contra el abuso infantil y el discurso de odio en sus plataformas. Esta determinación se tomó después de un escándalo mediático en el que se señalaba a la plataforma de permitir contenidos abusivos y perturbadores en su plataforma para niños, YouTube Kids, además de miles de cuentas y comentarios ligados a abusadores infantiles. Parece que el lugar seguro para los niños no era tan seguro como querían hacernos creer.

Esto se debe, en parte, a la confianza ciega en sus sistemas de inteligencia artificial que, por muy buenos que puedan ser los algoritmos, no son sustituto de la inteligencia humana, que sabe reconocer y contextualizar los contenidos. Pero por otro lado, y quizá más preocupante, está la reticencia de las grandes empresas de tecnología a reconocer su responsabilidad respecto a los contenidos que se publican en sus plataformas. Durante años han funcionado sin excesiva preocupación respecto a esto y lavándose las manos, aduciendo que no pueden controlar todo lo que sus usuarios suben, y pidiendo perdón cuando se les cuela algún contenido abusivo o degradante. Sin embargo, esta manera de funcionar claramente está fallando y está incidiendo negativamente en la sociedad.

Tanto en la educación como en la democracia, las fake news han tenido un impacto negativo en la formación de las personas y en su conocimiento sobre las realidades políticas y sociales. Facebook salió a la luz a principios del año por sus anuncios inmobiliarios en marketplace, que podían ser segmentados para evitar alquilar o vender casas a judíos, negros o latinos, así como a otras minorías, fomentando con esto el racismo y la exclusión. La eliminación en Twitter de cuentas como la de Rose McGowan denunciando a Harvey Weinstein o el mal control que han hecho de las cuentas que fomentan contenidos terroristas y de odio solamente ratifican la consideración de que estas empresas no están aportando lo suficiente al ambiente social y que, en algunos casos, están aportando a su degradación.

Por eso, no pueden seguir dependiendo en que periodistas y usuarios reporten los contenidos inapropiados y deben tomar responsabilidad por lo publicado en sus plataformas, a pesar de que no funcionen exactamente como un medio de comunicación tradicional. Y, aunque es verdad que no son medios tradicionales, deben asumir que son más como un medio de comunicación que como una “pura plataforma” puesto que ya con el posicionamiento de los contenidos (los ya tan discutidas posiciones de las noticias y contenidos en el newsfeed de Facebook o los videos destacados de Youtube, etc), ya con la capacidad de filtrar lo que se publica, tienen la misma o aún más responsabilidad que los medios tradicionales en la formación de la audiencia.

Estas empresas deben dejar de evadir su responsabilidad ética con la población y comenzar a tomar acciones radicales (y que tal vez impacten en sus ingresos, pero such is life) para tener un mejor control y moderación. Los usuarios se merecen estar seguros, tanto offline como online) y está en las manos de estas empresas de tecnología el trabajar para que esto suceda.

Frente a esto, los medios tradicionales deben también crecer en ética. Me indigno cada vez que leo a Nómada y a sus pretensiones de ser inmaculado y de tener el conocimiento decisivo sobre el juicio final, así como su tono paternalista y aleccionador. Realmente, uno de los requisitos principales para ser ético es ser humilde y reconocer la posibilidad de equivocarse. De no ser así, la caída (que la habrá porque nadie es perfecto) puede ser muy dura.

 

República es ajena a la opinión expresada en este artículo