Logos de redes sociales

 

Se están realizando audiencias en la Cámara de Representantes de los Estados Unidos sobre la desinformación y la regulación de las redes sociales

El Comité de Energía y Comercio de la Cámara de Representantes de los Estados Unidos realizó ayer una audiencia con los directores ejecutivos (Chief Executive Officer, CEO) de Facebook, Mark Zuckerberg; de Twitter, Jack Dorsey y de Google, Sundar Pichai. El evento se llamó "La Nación de la Desinformación: El Papel de las Redes Sociales en la Promoción del Extremismo y la Desinformación".

Esto sucede en el marco del análisis para definir si se modifica y en qué términos, la Sección 230 de la Communications Decency Act (CDA, Ley para la Decencia en las Comunicaciones) que da protección legal a las redes sociales. Esta disposición permite a los ISP como Facebook, Twitter o YouTube, alojar contenido de terceros, como tweets, mensajes o videos, sin temor a asumir responsabilidad, con algunas excepciones, de lo que los usuarios publican. También permite que estos servicios digitales intervengan cuando ven contenido objetable y restringen el acceso a dicho material.

La audiencia se centró en el papel que desempeñan las plataformas en la difusión de información errónea potencialmente peligrosa, que van desde conspiraciones de resultados electorales hasta mentiras sobre la vacuna contra el coronavirus, y un conjunto de soluciones legislativas a la Sección 230.

Los gigantes tecnológicos destacaron su trabajo sobre moderación de contenido y nuevas políticas. Facebook describió los esfuerzos para eliminar las cuentas falsas, verificar el contenido y eliminar la información errónea sobre el coronavirus en sus plataformas.

YouTube a principios de este mes reveló que eliminó 30,000 videos con información errónea sobre la vacuna COVID-19.

Twitter implementó una política para etiquetar publicaciones con información errónea, como es el caso de las vacunas, el coronavirus, o las elecciones de Estados Unidos, que podría hacer que las cuentas se suspendan o se eliminen por infracciones repetidas. Incluso recientemente lanzó una encuesta entre sus usuarios para conocer su posición sobre restringir como a cualquier otro usuario las publicaciones de gobiernos y autoridades.

En general los tres afirman que la desinformación y el extremismo son fenómenos que se presentan en las redes sociales en un bajo porcentaje y que están siendo proactivos para combatirlo.

Los legisladores, en general, coincidieron en que las tres empresas magnifican la desinformación y el extremismo, básicamente con fines de lucro y que con esos mismos fines incitan a la gente a que pase tiempo excesivo en sus productos.

El Representante Frank Pallone Jr., presidente del Comité de Energía y Comercio, destacó lo publicado por The Wall Street Journal, que afirma que un informe interno de Facebook presentado a los ejecutivos en 2018 encontró que la compañía era muy consciente de que su producto, específicamente su motor de recomendaciones, avivó la división y la polarización, pero a pesar de las advertencias sobre el efecto que esto podría tener en la sociedad, los ejecutivos de Facebook ignoraron los hallazgos y en gran medida ha tratado de eximirse de responsabilidad.

"Nuestros algoritmos explotan la atracción del cerebro humano por la división", se lee en una diapositiva de la presentación del estudio. "Si no se controla", advirtió, Facebook proporcionaría a los usuarios "contenido cada vez más divisivo en un esfuerzo por captar la atención del usuario y aumentar el tiempo en la plataforma".

 “Los últimos años han demostrado que cuanto más escandaloso y extremista es el contenido que las plataformas de redes sociales promueven, más dinero por la participación y la publicidad obtienen”, dijo Pallone Jr.

"A estas alturas está dolorosamente claro que ni el mercado ni la presión pública impedirán que las empresas de redes sociales eleven la desinformación y el extremismo, por lo que no tenemos más remedio que legislar, y ahora es una cuestión de cuál es la mejor manera de hacerlo", destacó el legislador en una declaración previa.

Uno de los temas que están sobre la mesa es regular los algoritmos que utilizan las redes sociales para hacer llegar la información a los usuarios. Inclusive un caso en donde se discutió el tema ya llegó a las cortes. En este caso se hacía responsable a Facebook por la muerte de un joven a manos de un partidario de Hamas, señalando que la plataforma dio a esa organización “un algoritmo sofisticado y altamente desarrollado que facilita la capacidad de Hamas para llegar e involucrar a una audiencia a la que de otro modo no podría llegar con tanta eficacia”. En la demanda se afirmaba que los algoritmos de Facebook no solo habían amplificado las publicaciones, sino que también habían ayudado a Hamas recomendando grupos, amigos y eventos a los usuarios.

El caso no prosperó, pero uno de los tres jueces de la Corte de Apelaciones del Segundo Circuito de EE. UU., Robert Katzmann, dijo que las recomendaciones algorítmicas de Facebook no deberían estar cubiertas por las protecciones legales.

“La creciente evidencia sugiere que los proveedores diseñaron sus algoritmos para llevar a los usuarios hacia el contenido y las personas con las que los usuarios estaban de acuerdo, y que lo han hecho demasiado bien, empujando a las almas susceptibles cada vez más por caminos oscuros”, dijo.

Según las posiciones que se han presentado, la mayoría de los legisladores consideran necesario modificar la sección 230, el tema es cómo y qué efectos tendrá.

miabogadoenlinea.net

Se permite la reproducción parcial o total, concediendo crédito a miabogadoenlinea.net

Pin It