El Congreso quiere cambiar Facebook, Twitter y YouTube porque Internet no funciona de esa manera

d

Los directores ejecutivos de Twitter, Facebook y Google comparecerán hoy ante el Comité de Comercio del Senado para discutir cómo están moderando el contenido en sus respectivas plataformas. Al parecer, se cree que los legisladores están considerando la posibilidad de cambiar aspectos de la ley conocida como Sección 230, que brinda cierta protección a las plataformas que alojan contenido generado por el usuario.

Últimamente ha habido muchos llamamientos para cambiar esta ley, más recientemente cuando el director de la FCC, Ajit Pai, dijo que la comisión reinterpretará la ley para decir básicamente lo contrario de lo que realmente dice. El senador Josh Hawley promulgó leyes para eliminar la protección legal de las plataformas técnicas.

La sección 230 de la Communications Decency Act permite a plataformas como Facebook moderar (o no moderar) el contenido de su plataforma sin responsabilidad legal. Hay algunas excepciones, especialmente por infracción de derechos de autor y actividad delictiva.

La Electronic Frontier Foundation (EFF) lo llama «uno de los instrumentos más valiosos para proteger la libertad de expresión y la innovación en Internet». Sin la Sección 230, las redes sociales como Facebook, Twitter y YouTube simplemente no existirían. Podrían ser considerados responsables del contenido que sus usuarios crean y publican y, dada la cantidad de contenido que se publica cada día, simplemente no sería factible ni rentable de administrar.

La ironía es que las solicitudes para enmendar la Sección 230 provienen de ambos lados del argumento. Un lado esencialmente quiere que estas plataformas moderen más contenido. Al otro le gustaría que moderaran menos. Ambos parecen creer que un cambio en la ley les dará más control sobre el contenido en línea con el que están de acuerdo o en desacuerdo. Alerta de spoiler: no lo hará.

Entonces, el Comité de Comercio del Senado pidió a los tres directores ejecutivos que aparecieran y respondieran preguntas. Si realmente aprendemos algo depende de algunas variables complejas.

Por ejemplo, uno de los mayores problemas es que los gigantes de las redes sociales han desarrollado plataformas que pueden usarse para reforzar el contenido de una manera que aumente el compromiso. Los algoritmos de YouTube están diseñados para que sigas viendo más y más videos. Los Facebook están diseñados para mostrarte contenido que te gusta, lo que te permite permanecer más tiempo en la plataforma y publicar más anuncios.

En muchos casos, sin embargo, esto significa que se amplifican los puntos controvertidos, falsos o candentes. Este es un problema muy real que las plataformas han abordado muy mal. Para contrarrestar esta amplificación, las empresas han establecido pautas para moderar algunos de los que consideran los peores tipos de contenido.

Twitter agrega etiquetas a las llamadas «publicaciones engañosas». Facebook prohíbe nuevos anuncios políticos en la semana anterior a las elecciones e incluso después. YouTube muestra canales que violan sus pautas.

La semana pasada, Twitter intentó frenar el intercambio de un controvertido artículo del New York Post sobre Hunter Biden al evitar que los usuarios publicaran el enlace antes de cambiar de rumbo para permitirlo. Vamos a dejar de lado por un momento lo ineficaz que es esto para detener el problema. Hay demasiadas formas fáciles de sortear este tipo de movimiento.

El problema real es si las empresas de redes sociales, independientemente del lado del espectro político en el que se encuentre, realmente quieren decidir que no se debe compartir un artículo de una publicación convencional. Intente de nuevo olvidar si está de acuerdo con este artículo en particular o cómo se siente acerca del New York Post. La próxima vez, podría ser fácilmente algo que le interese en un comunicado que patrocina.

En cualquier caso, el contenido que algunos creen poder ver más será moderado o incluso eliminado. La cuestión es que no se puede hacer una ley que obligue a las empresas privadas a hacer lo que quieran con el contenido de sus plataformas. La primera enmienda todavía existe.

Después de todo, surge la pregunta de quién decide qué tipo de contenido debe moderarse. Por supuesto, las plataformas pueden elegir cómo les gusta, pero en el mundo polarizado en el que vivimos, es casi imposible hacerlo de una manera que no moleste a casi todos.

Ese simple hecho es la razón por la que es probable que vea a muchos senadores descontentos a ambos lados del pasillo que le digan a Mark Zuckerberg, Jack Dorsey y Sundar Pichai por qué sus empresas ya no merecen la protección de la Sección 230 tienen exactamente el efecto contrario al previsto. En ese caso, las plataformas ciertamente restringirán mucho más contenido del que ya tienen.

Al final, lo más probable es que aprendamos lo mal que está el legislador para solucionar problemas muy reales con las cámaras apuntando en su dirección.

Las opiniones expresadas por los columnistas de Inc.com aquí son las suyas, no las de Inc.com.

¡Haz clic para puntuar esta entrada!
(Votos: 0 Promedio: 0)

Deja un comentario