Históricamente, las plataformas de redes sociales han administrado su moderación de contenido de modo muy similar a un padre que administra una casa llena de adolescentes: si vives bajo mi techo, sigues mis reglas. Pero a medida que las redes sociales se han vuelto cada vez más omnipresentes en nuestra vida fuera de sarta (y más inherentemente políticas), las preguntas se han convertido en: ¿Quién? en ingenuidad ¿Es dueño del techo, quién establece esas reglas y están en charnela nuestras libertades civiles?
Bajo la sucursal del presidente electo Donald Trump, este debate probablemente se intensificará hasta que la politización de la moderación de contenidos ámbito un punto decisivo.
¿Cómo llegamos aquí?
La desarrollo de la moderación de contenidos comenzó lentamente y ganó velocidad a medida que crecía la influencia de las redes sociales. Se hizo cada vez más claro que había que hacer poco cuando Facebook, Twitter y YouTube desempeñaron papeles esencia en la Primavera Árabe, una serie de protestas en el mundo árabe en respuesta a la corrupción ministerial, en la lapso de 2010. Facebook se utilizó como útil para que los activistas se organizaran, pero rápidamente se volvió controvertido. YouTube se debatió sobre si permitir videos violentos que tuvieran fines educativos o documentales en respuesta a activistas en Egipto y Libia que exponían la tortura policial. Casi al mismo tiempo, Twitter implementó su política de “tweets retenidos por el país”.
En 2013, documentos filtrados de las oficinas de moderación de Facebook mostraron qué contenido, exactamente, estaba moderando Facebook. Al año venidero, la cuestión de la radicalización en sarta surgió en las plataformas de redes sociales. YouTube revirtió su política de permitir ciertos videos violentos posteriormente de que uno que mostraba la cercenamiento del periodista James Foley se volviera vírico. Twitter enfrentó una reacción violenta por el acoso incontrolado por la libertad de las mujeres Cazafantasmas película, lo que llevó a un cambio de moderación del contenido.
Detrás de ámbito, las personas que moderaron el contenido denunciaron condiciones laborales horribles. Y luego llegó 2016.
La desinformación y la desinformación plagaron las elecciones presidenciales estadounidenses entre Hillary Clinton y Trump. A pesar de que Facebook lanzó un software de demostración de datos, las plataformas lucharon por detener la difusión de información errónea y la interferencia electoral. En Myanmar, el pueblo rohingya enfrentó enormes actos de violencia étnica alimentados por el contenido de Facebook. Mientras tanto, Facebook Live se convirtió en un superficie para retransmitir suicidios y tiroteos, incluido el homicidio de Philando Castilla. En 2018, TikTok se lanzó en China y, ese mismo año, Twitter eliminó 70 millones de bots para frenar la influencia de la desinformación política. Más tarde ese año, YouTube publicó su primer referencia de transparencia y Facebook formó su Trabazón de Supervisión, permitiendo a los usuarios apelar sus decisiones. En 2019, el ataque terrorista de Chirstchurch, que se transmitió en Facebook Live, dio superficie al Llamado a la batalla de Christchurch para eliminar el contenido terrorista y extremista violento en sarta, un clan de naciones “trabajando juntas bajo la rótulo del Llamado para precaver a los terroristas y extremistas violentos”. de explotar Internet.” Twitter permitió a sus usuarios apelar la aniquilación de contenido ese mismo año y, finalmente, TikTok se lanzó a nivel internacional.
Mientras tanto, Trump fue presidente. Firmó una orden ejecutiva para precaver la censura en sarta, que apuntaba a la Sección 230 de la Ley de Limpieza en las Comunicaciones y tenía como objetivo frenar lo que consideraba prejuicios contra él y otros conservadores en la forma en que las plataformas moderan el contenido. Esto se produjo posteriormente de que Twitter marcara muchos de los tweets de Trump por contener información engañosa. Él y otros miembros de su partido acusaron a plataformas como Twitter, Facebook y Google de tener un sesgo anticonservador, lo que llevó a audiencias e investigaciones en el Congreso sobre contenido moderado, un tipo de impacto que Katie Harbath, fundadora y directora ejecutiva de la firma de políticas tecnológicas Anchor Change y un ex ejecutante de Facebook, lo fogata “de reputación”.
La pandemia, el 6 de enero y el pico de politización
Entonces llegó el COVID-19. La desinformación sobre la afluencia entero fue rampante y, como resultado, más personas murieron. Las reglas para moderar el contenido en sarta se expandieron a nivel internacional para contrarrestar los fenómenos cada vez mayores del discurso de odio, la desinformación electoral y la desinformación sanitaria. Facebook introdujo políticas dirigidas a contenidos que niegan el Holocausto, grupos de odio, milicias organizadas y teorías de conspiración, mientras que Twitter lanzó su centro de transparencia.
Pero el 6 de enero de 2021 marcó un punto de inflexión. Plataformas como Facebook, Twitter y YouTube prohibieron o bloquearon las cuentas del entonces presidente Trump por incitar a la violencia durante el ataque al Capitolio.
“Yo diría que la aniquilación de la plataforma de Trump fue una oscilación máxima del péndulo”, dijo a Mashable Katie Harbath, fundadora y directora ejecutiva de la firma de políticas tecnológicas Anchor Change y ex ejecutiva de Facebook. “Desde entonces, durante los próximos cuatro primaveras, [platforms have] han vuelto un poco más al centro en términos de cuánto contenido están dispuestos a eliminar. [And] están siendo mucho más silenciosos al respecto. No están siendo tan transparentes al respecto porque no quieren tener un objetivo político a sus espaldas en torno a eso”.
¿Dónde estamos ahora?
Desde entonces, Trump ha sido reinstalado en todas las plataformas de redes sociales. Pero el foco se mantiene: los republicanos afirman que la moderación de contenidos silencia las voces conservadoras. Como dijo a Mashable Berin Szóka, presidente de TechFreedom: “La censura es simplemente moderación de contenido que a cierto no le gusta”.
Elon Musk, un autoidentificado “absolutista de la arbitrio de expresión”, adquirió Twitter a finales de 2022 y alimentó esta retórica. En enero de 2023, los republicanos de la Cámara de Representantes establecieron un subcomité sobre la “militarización del gobierno federal”, cuyo objetivo es la supuesta censura de las opiniones conservadoras. En uno de sus primeros actos oficiales, enviaron cartas a grupos de investigación exigiendo cualquier documentación sobre la correspondencia entre esos grupos y el gobierno federal. El gobierno federal o las empresas de redes sociales sobre la moderación de contenidos. Mientras tanto, una demanda alegaba que la sucursal del presidente Joe Biden presionó a las plataformas para que suprimieran la información errónea sobre el COVID-19, lo que, según los fiscales generales, era una forma de supresión del discurso.
Meta, en un cambio extraordinario, ha limitado su enfoque en el contenido político, particularmente en su competidor de Twitter Threads, lo que, según Harbath, “no es necesariamente moderación de contenido, sino una valor sobre qué tipos de contenido presentan o no a la clan”. “
¿Qué veremos en el futuro de la moderación de contenidos?
El presidente electo Trump ha hecho de la moderación de contenidos un tema de campaña. Brendan Carr, su favorito para dirigir la FCC, ya se ha hecho eco de esta dietario, pidiendo el desmantelamiento de lo que él fogata el “cártel de la censura” y un intento de “restaurar los derechos de arbitrio de expresión para los estadounidenses comunes y corrientes”.
“Para lograrlo, tienen que intimidar o exigir a las empresas tecnológicas que expresen un discurso que no quieren expresar”, afirmó Szóka. “Los republicanos están en querella por la moderación de contenidos”.
Esta “querella” probablemente se desarrollará en varios frentes diferentes: legal y reputacional, como dice Harbath. En términos de reputación, veremos más audiencias en el Congreso con ejecutivos de tecnología, más publicaciones de Trump sobre X y más energía dudosa con respecto a la moderación de contenido en común. Legislativamente, tenemos un camino interesante por delante.
Como dice Szóka, Carr probablemente seguirá las órdenes de Trump con respecto a los criterios de elegibilidad para la Sección 230 inmunidad, que “otorga inmunidad total para las actividades del editor o del orador, independientemente de si el discurso impugnado es ilegal”. Esto significa que Facebook no es responsable de la desinformación, el discurso de odio o cualquier otra cosa que se caiga en la plataforma que posee y administra con su hacienda.
“[Republicans will] “Utilice la Sección 230 porque al hacerlo, pueden aseverar: 'No estamos exigiendo cero'”, dijo Szóka. “Usted es osado, como empresa privada, de hacer lo que quiera. Pero si quieres inmunidad según la Sección 230, tienes que ser ecuánime y nosotros decidimos qué es ecuánime”.
Harbath ve caos en el futuro, pero se pregunta si la Sección 230 efectivamente cambiará: “Probablemente habrá un debate y una discusión en torno a ella, pero soy escéptico sobre si la Sección 230 efectivamente cambiará o no”.
Al mismo tiempo, el auge de la IA está remodelando el futuro de la moderación de contenidos. “En los próximos cuatro primaveras, la forma en que la clan consume información, lo que estamos hablando hoy será completamente irrelevante y se verá completamente diferente”, dijo Harbath. “La IA simplemente cambiará la forma en que pensamos sobre nuestras fuentes de informativo, los incentivos para las personas, lo que publican, cómo se ve, y abrirá nuevos desafíos para las empresas de tecnología en términos de cómo se politiza”.
¿Deberíamos asustarnos? Probablemente no. Según Harbath, todavía es demasiado pronto para predecir cómo será la moderación de contenidos bajo un segundo mandato de Trump. Pero deberíamos perdurar los fanales abiertos. Las reglas de moderación de contenidos (y quién puede escribirlas) están cada vez más determinadas por el poder político, la percepción pública y la desarrollo tecnológica, lo que prepara el ámbito para batallas por la arbitrio de expresión, la responsabilidad corporativa y el papel del gobierno en la regulación de los espacios en sarta.
“En común, es demasiado pronto para asimilar exactamente cómo será esto”, dijo Harbath.
XgG">Source link