22/09/2021
Breaking News
  • Home
  • Sociedad
  • Empresas tecnológicas: La responsabilidad ante los contenidos dañinos

Empresas tecnológicas: La responsabilidad ante los contenidos dañinos

By on 04/03/2019 0 112 Views

Los grupos contra las vacunas, han usado por décadas investigaciones desmentidas para alimentar los miedos de los padres sobre la vacuna contra el sarampión, paperas y rubeola, y generado el aumento de los niños no vacunados en Estados Unidos.
En consecuencia, los estados de Washington, Texas y Nueva York han sufrido brotes de sarampión y allí deben luchar para mantener a raya la enfermedad.
La pregunta que deberíamos plantearnos en este caso es si las empresas tecnológicas son responsables de moderar su contenido cuando existe un riesgo para la salud pública. Varias empresas tecnológicas grandes han implícita y correctamente respondido que sí. Todas las empresas en cuestión deberían sumarse a esta respuesta afirmativa y explorar dos métodos posibles de ocuparse de la información errónea en sus plataformas.
The Guardian halló que una búsqueda neutral de la palabra “vaccine” (“vacuna”, en inglés) por un nuevo usuario sin amigos ni clics en “me gusta”, arrojó un abrumador contenido contra las vacunas, no respaldado por la ciencia, tanto en Facebook como en YouTube.

Hay dos métodos que podrían usar las grandes empresas tecnológicas —algunas ya aplicadas a otros temas— para responder a las crisis de salud pública.

La primera está tomada de Tech Against Terrorism, una colaboración entre las Naciones Unidas y las empresas tecnológicas que optan participar en el proyecto. Este esfuerzo lanzado en 2017 es una forma de que tanto las grandes empresas como las más pequeñas puedan compartir las mejores prácticas y operar con cierto grado de información compartida sobre los esfuerzos internos por remover el contenido que apoya los ideales terroristas.

En el caso de la salud pública, la OMS podría liderar un esfuerzo internacional similar para compartir prácticas que las empresas usan para extirpar información desmentida de salud de las plataformas en línea.

La segunda opción es que cada empresa modere su propio contenido y cree mecanismos claros para advertir a los usuarios cuando hallan contenido no científico que potencialmente podría ser dañino.

Facebook y otras empresas ya usan una versión más extrema de este método para encontrar y remover propaganda terrorista de sus sitios. Los impresionantes esfuerzos combinan el uso de la inteligencia artificial con verificadores humanos para hallar publicaciones que apoyan el terrorismo y removerlas, en promedio, 18 horas después de que son posteadas.

Una opción intermedia sería usar prácticas similares de inteligencia artificial y personal verificador, pero etiquetar el contenido sospechoso no científico de un modo similar a lo que se hace con los programas dañinos. Cuando los usuarios buscaran información sobre las vacunas y surgieran sitios sospechosos, verían una gran etiqueta de advertencia.
En este caso, la información no científica está causando una crisis de salud pública que daña principalmente a los niños. Las empresas tecnológicas tienen una que asumir su responsabilidad. La única cuestión es cómo hacerlo.

Fuente: CNN

A %d blogueros les gusta esto: