La moderación de contenidos impulsada por la IA está moldeando sutilmente la opinión pública y el compromiso político
Facebook gana sólo alrededor de £34 al año por parte del cliente medio en el Reino Unido, un poco menos de £3 al mes (y eso es antes de costos), por lo que claramente no hay margen de maniobra ni motivación para un nivel humano de servicio o atención al cliente. El usuario no es el cliente; más bien, es el producto cuyos datos se venden a los anunciantes.
Por tanto, los usuarios no tienen una relación directa con la plataforma. La red no está incentivada directamente a "cuida" del usuario ante el anunciante. Y no importa dónde se encuentre en el espectro entre el “absolutismo de la libertad de expresión” y “las entidades privadas tienen derecho a censurar a cualquier usuario”, con márgenes tan bajos es inevitable que se tenga que utilizar procesamiento automático para moderar las publicaciones y tratar con la interfaz del cliente.
Pero es un hecho que las capacidades de gestión y procesamiento de los clientes que las redes sociales están desarrollando ahora se están utilizando de diversas formas más allá de la simple moderación. Y también es cierto que este procesamiento automatizado se realiza a escala y ahora se aplica a cada publicación que realiza cada miembro. El 68% de los votantes estadounidenses están en Facebook. En el Reino Unido es el 66% y en Francia el 73,2%. Las cifras son similares para todas las naciones democráticas de Occidente. Por eso es de vital importancia que las normas aplicadas sean políticamente neutrales.
El poder que existe dentro de la capacidad de procesar automáticamente las publicaciones de cada usuario es mucho más profundo de lo que quizás muchos creen. Y si bien no puede dictar directamente lo que los usuarios escriben en sus mensajes, tiene la capacidad de determinar fundamentalmente qué mensajes ganan fuerza.
Los servicios de redes sociales se han convertido de facto en plazas urbanas y la mayoría estaría de acuerdo en que sus propietarios corporativos deberían evitar poner la mano en la balanza e influir en la política.
Además, como saben todos los que usan Facebook, especialmente cuando se trata de temas políticamente delicados, el sistema calificará el alcance de un individuo; a veces hasta un grado extremo. O ese usuario simplemente será excluido por un período de tiempo o baneado de la red por completo.
Entonces podemos hacernos la pregunta: dado que las corporaciones de redes sociales tienen tanto poder de censura, ¿cómo sabemos que no están participando en una interferencia política poco ética? ¿Se les puede confiar la responsabilidad?
Volveré a esta pregunta, pero está claro que la confianza en estas corporaciones está profundamente fuera de lugar.
La pandemia ha despertado a muchas personas ante los niveles de control que están imponiendo los responsables de nuestras redes sociales. Ellos escriben las reglas para aumentar la participación en las publicaciones que favorecen, haciendo que la cuenta de seguidores de ciertas personas sea más valiosa. Por el contrario, los usuarios que van contra la corriente (o contra la narrativa del establishment) ven su participación sutilmente reducida o incluso se estanca, o pueden ser excluidos del servicio por completo. Y la evidencia es que, en contra de los principios de la democracia, se han puesto las manos muy firmemente en la balanza en Facebook, Twitter y YouTube.
Cuando Elon Musk compró Twitter, invitó a los periodistas independientes Matt Taibbi, Bari Weiss y Michael Schellenburger a las oficinas de Twitter para investigar las comunicaciones internas de la empresa y ver hasta qué punto los propietarios anteriores habían estado censurando los tweets de los usuarios.
Los archivos de Twitter son el resultado y demuestran claramente que ha habido interferencia a gran escala y que en muchos casos también ha sido por motivos políticos. El equipo de Twitter Files estableció que las agencias gubernamentales estaban firmemente integradas en la empresa que monitoreaba y censuraba a los ciudadanos estadounidenses y los ciudadanos de otras naciones y las agencias gubernamentales solicitaban regularmente (enérgicamente) acciones de censura. Pero más que esto, también han revelado que se han producido niveles similares de interferencia en otras redes sociales como Facebook.
Pero desde que Twitter presenta evidencia de interferencia, ha surgido una amenaza de interferencia nueva y potencialmente aún mayor. AI.
Hubo un tiempo en que parecía que los algoritmos eran el único tema de conversación que los especialistas en marketing digital podían discutir. Y como no hay margen para la intervención humana a nivel de publicaciones individuales, lo que se estaba utilizando eran algoritmos.
Para empezar, eran bastante simples, como las ecuaciones que practicamos en la clase de matemáticas de la escuela, por lo que eran relativamente fáciles de resolver. El ascenso de Google fue impulsado por una idea simple pero brillante: contar los enlaces externos a una página web como indicador de relevancia.
Pero desde entonces los algoritmos han dado paso a modelos de aprendizaje automático más complejos que, en su núcleo, todavía dependen de algoritmos, pero ahora se generan automáticamente y son tan vastos que cualquier intento humano de desenredarlos es un fracaso. Así que limitamos nuestro pensamiento sobre ellos a lo que pueden lograr, qué cosas significativas pueden discriminar en lugar de exactamente cómo funciona el código.
Y ahora hemos entrado en una tercera generación de tecnología. El aprendizaje automático se ha transformado en el desarrollo de modelos de lenguajes grandes (LLM) o, más popularmente, IA. Y con esta última evolución, los corporativistas han encontrado inmensas y aterradoras nuevas oportunidades de poder y control.
La creación de LLM implica formación. La formación les confiere habilidades y prejuicios específicos. El propósito de la formación es llenar los vacíos, de modo que no haya lagunas obvias en la capacidad del LLM para abordar los componentes básicos de la conceptualización y el habla humanos. Y esta es la característica distintiva de los LLM; que podemos conversar con ellos y que la conversación fluya, y que la gramática y el contenido se sientan fluidos y completos. Idealmente, un LLM actúa como un refinado mayordomo inglés: educado, informativo y correcto sin ser grosero. Pero también la formación confiere especializaciones al LLM.
En el contexto de las redes sociales –y aquí es donde los aterradores niveles de poder comienzan a hacerse evidentes– los LLM se están utilizando para actuar como monitores de sala, imponiendo la “moderación de contenido”.
Llama Guard de Meta es un excelente ejemplo, entrenado no solo para moderar sino también para informar sobre los usuarios. Y esta función de informes encarna no sólo la oportunidad de informar, sino también a través de esos datos de informes, la extracción de oportunidades para influir y hacer sugerencias sobre el usuario y también sobre el usuario. Y cuando digo sugerencias, un LLM es capaz no sólo del tipo obvio que el usuario podría agradecer y estar feliz de recibir, sino también de un tipo inconsciente más tortuoso que puede ser manipulador y estar diseñado para controlar.
Todavía no hay evidencia recopilada (que yo sepa) de que los LLM en particular se estén utilizando de esta manera; todavía. Pero lo más seguro es que la capacidad está ahí y, si los comportamientos pasados indican desarrollos futuros, es probable que se utilice de esa manera.
Solo hay que ver el episodio de 2006 del programa de televisión de Derren Brown "Derren Brown: The Heist", donde convence a un grupo de extraños de que deben cometer un atraco a un banco, para apreciar lo profundo y poderoso que puede ser el uso de la sugestión. Para aquellos que no conocen a Derren Brown, es un hipnotizador y mentalista de escenario, que tiende a enfatizar el poder de la sugestión sobre la hipnosis (la mayoría de sus espectáculos no contienen hipnosis en absoluto). Simplemente mediante el poder de la sugestión consigue que la gente haga las cosas más extraordinarias.
Las sugerencias “al estilo Derren-Brown” funcionan porque el cerebro humano es en realidad mucho menos ágil y mucho más lineal de lo que nos gusta pensar. La conciencia es un recurso precioso y muchas acciones que hacemos con frecuencia se transfieren al hábito, por lo que podemos realizarlas sin pensar y esto es para que podamos preservar la conciencia para donde más se necesita.
Por costumbre cambiamos de marcha en un coche con cambio manual sin tener que pensar en ello. Y todos hemos experimentado ese juego en el que tienes un tiempo determinado para pensar en una lista de cosas, como países, que terminan con la letra A. Si nos ponemos en aprietos frente a una multitud, a veces puede ser difícil encontrar la respuesta. El cerebro a menudo no es tan bueno para pensar creativamente o para hacer recuerdos rápidos y conscientes en el acto.
Pero, si alguien con quien hablaste unos minutos antes del partido te contó sobre sus vacaciones en Kenia, puedes estar seguro de que Kenia será la primera respuesta que te vendrá a la cabeza. Más que eso, la asociación se producirá automáticamente, lo queramos o no.
Así es simplemente como funciona el cerebro. Si la información se transmite en el momento justo y de la manera adecuada, es casi seguro que se seguirá una determinada sugerencia. Derren Brown entiende esto y es un maestro en explotarlo.
Los motores de búsqueda y las plataformas de redes sociales ejercen un inmenso poder para diseñar el comportamiento a través de sugerencias sutiles. Y, de hecho, hay pruebas de que Facebook y Google lo han hecho.
El profesor e investigador Dr. Robert Epstein –por así decirlo– “sorprendió a Google” manipulando el cuadro de sugerencias de búsqueda que aparece debajo del cuadro de texto donde los usuarios ingresan una solicitud de búsqueda. Todo el episodio se volvió aún más sórdido cuando quedó claro que estaban siendo engañosos y tenían un nivel de conciencia de que su experimentación no era ética. No contaré todos los detalles, pero echa un vistazo a los enlaces a esto: es una historia interesante por derecho propio.
Los usuarios se encuentran en un estado mental particularmente confiado y receptivo cuando utilizan la función de enlaces sugeridos de Google y no se dan cuenta cuando los resultados contienen acciones y sugerencias imperativas que, lejos de ser la mejor respuesta a su consulta de búsqueda, están ahí para manipular las acciones posteriores del usuario.
En relación con las publicaciones en las redes sociales, el uso de sugerencias suele ser mucho más sutil, lo que hace que sea más difícil de detectar y resistir. El análisis de LLM en la base de datos de publicaciones de usuarios puede revelar publicaciones relacionadas que sugieren acciones. Aquí la red puede aprovechar el hecho de que tiene muchos millones de mensajes de usuarios a su disposición, incluidos mensajes que sugieren resultados preferidos. Estos mensajes se pueden seleccionar y promocionar preferentemente en los feeds de los usuarios.
Por supuesto, la moderación del contenido es necesaria para abordar el lenguaje inaceptable y el comportamiento antisocial. Sin embargo, hay una gran zona gris donde las opiniones desagradables pueden etiquetarse como “discurso de odio” y, debido a que es un área gris, hay mucho margen para que la red social se inmiscuya en la política personal y el espacio de libertad de expresión.
El término “discurso de odio” ha sido un recurso muy eficaz para justificar el uso del martillo de prohibición, pero la principal preocupación ahora es que, con el despliegue de los LLM, se ha superado sin apenas un susurro un hito histórico importante que implica un nivel completamente nuevo de tales limitaciones y amenazas a la libertad de comunicación de los usuarios.
Y ese hito es que ahora los LLM se utilizan para gobernar el comportamiento humano y no al revés. El paso de este hito apenas se ha notado porque anteriormente ya teníamos algoritmos más simples que realizaban esta función y de todos modos se hace en la oscuridad.
Los usuarios no lo ven hasta que no están afectados por él de una manera obvia. Pero aun así hay muchas razones para pensar que en el futuro podremos mirar hacia atrás y reconocer que este hito fue una especie de coyuntura crítica después de la cual alguna versión de un futuro tipo "Sky-Net" se volvió inevitable.
La semana pasada, el Primer Ministro del Reino Unido, Keir Starmer, anunció una iniciativa policial para utilizar las redes sociales para identificar a quienes participan en la represión del desorden público, lo que ilustra cómo los informes automatizados de LLM están preparados para usarse más allá de las redes sociales y en el contexto de la aplicación de la ley.
Aún no hay detalles sobre cómo se realizará esta supervisión, pero, al tener experiencia en la presentación de proyectos tecnológicos, puede estar seguro de que el gobierno tendrá una lista de empresas de tecnología que sugerirán soluciones. ¡Y puede estar seguro de que los LLM están siendo lanzados como parte integral de casi todos ellos!
Por eso hemos establecido que las redes sociales son cerradas y propietarias y han permitido que se establezcan nuevas estructuras de poder en los medios. Hemos visto que los propietarios de redes sociales tienen el poder de suprimir o aumentar la viralidad de una publicación y ahora han implementado vigilancia y presentación de informes por parte de LLM (AI), que parece que se extenderá a la vigilancia policial en el mundo real. Hemos visto, a través de los archivos de Twitter, que las corporaciones de redes sociales violaron la ley durante la pandemia y mostraron su voluntad de colaborar con agencias gubernamentales para censurar y suprimir las opiniones desfavorables.
Paul Lancefield