🇪🇸 Curación de los Medios Sociales | CH 10 Ene 2021 (Parte 1 de 3)

:es: Transcripción al español de “Social Media Curation

Publicado en el canal de Youtube de Charles Hoskinson el 10 de Enero de 2021

Enlace a la versión doblada al español


Hola a todos, este es Charles Hoskinson, transmitiendo pre grabado desde la cálida y soleada Colorado, hoy va a ser una divertida, siempre cálida, siempre soleada, a veces Colorado, especialmente en los días pre grabados.

Así que hemos tenido un infierno de semana, ha sido un tiempo interesante, realmente el tema a mano es este concepto de libre discurso y los derechos de las corporaciones, los derechos de los individuos, los derechos para eliminar de plataforma, los derechos para permitir cosas, escuchaste todos estos términos como “apoyar a los nazis”, “fuego en un teatro”, o algo así. Aparentemente todos los que están en desacuerdo conmigo son malvados y deben ser eliminados de plataforma para prevenir violencia. De alguna forma, el mero hecho de dejar hablar a un hombre o mujer es tan amenazante que si lo hacemos, hay certeza de violencia. Aparentemente fue el libre discurso lo que llevó a la aparición de los nazis, no fue la primera guerra mundial, no fue una horrible condición económica, no fue la aparición del fascismo a través de Europa, como Italia y otros lugares como ese, no fue el racismo rampante en esa sociedad que ha sido empujado a finales del siglo 19 y durante el siglo 20, no, no, no. Simplemente fue dejar a la gente mencionar sus pensamientos, incluso aunque la gente no podía, porque no había garantía de libertad de discurso durante la República Weimar, o antes de eso, el Kaiser, eso es lo que llevó a la aparición de los nazis, es una cosa loca.

Estamos sentados sobre estos conceptos de los medios sociales y se nos presentan como una mentira, una falsa dicotomía, y la dicotomía o bien es absoluta, irrestricta, discurso libre completo, o discurso controlado. La hipótesis es que si no tienes discurso controlado, donde alguna tercera parte de confianza, usualmente auto proclamada, gobernada por Fiat, modera los medios. Luego vas a descender a “todo el mundo se convertirá en nazi, todos somos malvados, todos somos destructivos, todos somos malos actores, ocurrirá violencia, toda esta gente va a morir, la sociedad colapsará totalmente”, y siempre utilizan el “fuego en teatro” cuando hablan de discurso libre absoluto. Por cierto, siempre puedes prender fuego en el teatro, sin importar que, en realidad no hay nada que te prevenga de hacer eso. Probablemente irás a la cárcel si resulta en la pérdida de vidas o daño a otros, ¿por qué?, porque incitaste un disturbio, eres responsable por las consecuencias de tu discurso, pero igual sigues teniendo la capacidad de hacerlo.

Ok, así que hablemos un poco acerca de una tercera opción, algo para salir de esta falsa dicotomía, verás mucho esto en malos argumentos lógicos, especialmente por aquellos que desean poder, o control sobre la gente, o quieren legitimar modelos de negocios que son contra productivos para la libertad. Estas falsas dicotomías, donde o bien haces esta cosa absolutamente loca que es contra productiva, o aceptas que yo tengo control total, una o la otra. Cuando sea que escuches eso, instantáneamente deberías sospechar, es una falacia lógica. La realidad es que cuando hablas de una red social, toda la razón por la que funcionan, se las llama mercado de múltiples lados, tienes un productor y un consumidor. Eres el productor de información, info, y tus amigos son otras personas que te siguen que están socialmente conectados a vos, ellos consumen esa información. Así que los primeros mercados de múltiples lados que vimos fueron cosas como eBay por ejemplo, luego Airbnb, Uber, y básicamente tienen un intermediario, el proveedor de la plataforma, y su trabajo es conectar el productor y el consumidor, también actúan como una especie de regulador, de clasificaciones de productores y consumidores. En el caso de eBay, protección al consumidor, al comprador, al vendedor, rating de vendedores poderosos, este tipo de cosas, así sabes con quién estás haciendo negocios. En el caso de Facebook, bueno, cierto tipo de perfiles predatorios, “vayamos a remover esto”, por ejemplo el trepador de 40 años que vive en el sótano y continúa enviando solicitudes de amistad a chicas de 11 años, probablemente es una buena idea mirar eso, probablemente va a resultar en un mal resultado.

Así que aceptamos que una regulación de la plataforma tiene sentido, y en pequeñas comunidades, la regulación de la plataforma usualmente no es súper problemática, porque si es pobremente regulada la comunidad morirá, si está bien regulada la comunidad probablemente tendrá buen flujo de información. Por ejemplo si estás moderando un canal de Telegram o moderadores de Reddit, algo así, puedes obtener un sentido de qué tipo de comunidad es y se mantiene relativamente consistente. Donde se vuelve problemático es cuando comienzas a tener interacciones con billones de personas, y aquí tienes que resolver un poco más, básicamente cómo automatizar, y también te tienes que preguntar, ¿qué es lo que exáctamente está haciendo la gente, qué tipo de interacciones está teniendo la gente? Como por ejemplo, vayamos adelante y tengamos a Alice, y Alice, vamos a darle un pequeño vestido azul, ahí vamos, pueden ver que esas clases de dibujo realmente están dando sus frutos. Digamos que Alice quiere compartir algo, quiere compartir un artículo de noticias. Digamos que hay un artículo de noticias que es el acto de insurrección de 1807, y cómo Trump acaba de promulgarlo, probablemente esto es una noticia falsa, hoy lo he visto flotando en Twitter, y hoy es 10 de Enero, y mucha gente está diciendo “Trump ha iniciado el acto de insurrección”, es como el punto más ruidoso de la conspiración, etc. Bien, quiere compartir eso, y es amiga de Bob, aquí está Bob, y ve este artículo en su alimentación de noticias. Así que primero Bob tiene preguntas, quizás ni siquiera sabe lo que es el acto de insurrección de 1807, luego hay una afirmación de un evento que es verdadero o falso, luego hay una pregunta acerca de la credibilidad de Alice. En este tipo de estructura, la construcción de productor, consumidor, donde tienes a Alice y Bob, y Alice ha empujado algo, no es la originadora de ese contenido, hay una afirmación implícita que está haciendo, si la única cosa que puede hacer es clic en un botón y compartir, acerca de la veracidad de la información, cuán fiable es, ¿es inventada, es verdad? Y Bob realmente no está en una posición en la que sabe mucho al respecto, así que a menos que tenga mucho conocimiento acerca de Alice, ¿es una teórica conspirativa, son muy discriminativas las cosas que comparte?, básicamente no está en una posición, en los orígenes de quién lo comparte, para saber si es creíble y si el artículo está escrito de cierta manera y tal vez provenga de alguna fuente creíble, quizás está inclinado a creer en él. Esta es como la propagación de noticias falsas, y puede de hecho ser armada, y la única defensa, en este momento, si tu sistema está absolutamente sin curación, permites a la gente compartir, es que Bob, de alguna manera, tiene que tener, vamos a llamarlo una “vacuna mental” en contra de noticias falsas, ha sido inoculado con alguna clase de habilidades de pensamiento, herramientas de pensamiento, que cuando ve algo, puede analizarlo críticamente hasta un punto en el que es capaz de decir “oh, eso es falso, eso no ocurrió”. Pero si Bob no tiene esa inoculación o si su sistema inmune para esto se ve abrumado por muchas fuentes diferentes, entonces el asunto es que Bob eventualmente va a dejar pasar alguna de estas, y cuando entra, o se va a enojar, volver paranoico, se va a asustar, o lo va a compartir, a Jim y a Bill, y a Jane, etc. Y eso es lo que básicamente termina sucediendo en la práctica, vemos mucha basura siendo esparcida en las redes, cosas plagadas con sesgos de confirmación, que no han sido analizadas, cosas que han sido manufacturadas por poderes extranjeros con el propósito de dividir a la gente o atacar la verdad. Es una dinámica bastante loca, hay numerosos libros, artículos, documentos científicos que han escrito acerca de esta difusión de desinformación. Y el problema es que si sólo confías en las habilidades de pensamiento de la gente que está recibiendo las cosas, eso sólo son efectivos hasta los dominios de competencia de la gente y la cantidad de información a la que son expuestos en una base diaria. Si continúan siendo más y más expuestos, una y otra vez, al igual que un sistema inmune real, el problema en algún punto se pliega y empieza a replicarse y difundirse a través de la red, como un contagio.

Así que las plataformas en sí mismas pueden tener un montón de poder sólo con el conjunto de herramientas que brindan, y cómo permiten a la gente cuantificar por ellos mismos para mejorar esta preocupación. La mentira que se nos cuenta, cuando volvemos a la idea controlada es que de alguna manera la plataforma, ya sea a través de automatización o proceso mecánico, va a contratar chequeadores de hechos, y estos chequeadores de hechos, están peculiarmente calificados y son infalibles, y de alguna manera siempre van a mirar estos artículos y ser capaces de saber si son verdaderos o falsos, o comentar y etiquetarlos. Ahora, Bob no tiene nada que ver con seleccionar ese chequeo de hechos, no tiene relación con ellos, no pidió que ellos estén ahí, aparentemente la plataforma, como regulador, ha decidido entrar. No sólo eso, pueden adjuntar consecuencias sociales al chequeo de hechos. Así que si Alice comparte muchas cosas que ellos determinan que están mal, simplemente se libran de su cuenta, “has violado nuestros términos de servicio”, es una cosa increíblemente peligrosa, porque los chequeadores de hechos no son dios, no son infalibles, no tienen contexto, especialmente si son automatizados. ¿Y qué pasa si empiezan a ver cosas que son opiniones políticas, ya no como una diferencia de opinión sino como noticias falsas dañinas para su mirada del mundo?, gran problema.

Creo que todo este modelo es muy dañino. En su lugar, lo que tenemos que hacer es un enfoque mucho más de abajo hacia arriba. Primero tienes que distinguir la fuente y verificar la información de anónimos, ¿ok?, luego tienes que crear pesos, y esos pesos pueden ser reputación, pueden ser dinero, pueden ser otras cosas como trabajo por ejemplo. Puedes crear todo tipo de pesos que aparecen detrás de algo. Primero está la fuente y verificación, Bob sabía que era Alice la que compartió porque digamos que se realizó en Facebook, y ese es un sistema semi no anónimo, puedes crear un perfil de la vida real, la mayoría de la gente utiliza sus nombres, pero igualmente puedes crear un perfil falso. Hice un video previo acerca de DIDs y este concepto de tweets verificados. Pero estamos viviendo en una era en que puedes una identidad verificada, legítima, creíble, KYC, esto sería equivalente a la marca azul en Twitter, o algo así, así que este concepto de cuenta verificada. Porque la suplantación de identidad ocurre todo el tiempo, vemos esto por ejemplo con las estafas de regalos en el espacio de criptomonedas donde la gente lo comparte a través de los medios sociales todo este contenido muy dañino, donde están tratando de hacerse pasar por mí o Steve Wozniak, Brad Garlinghouse o alguien, para básicamente convencer a la gente de que les envíen criptomonedas. Así que todo el punto de la verificación es que sabes que la persona compartiendo es real, bien, verificado es una. ¿Cuáles son las fuentes detrás de ello?, si dentro del sistema ya construiste una fuerte diferenciación entre fuentes anónimas, noticias anónimas, así que quizás cuando Alice comparte algo que fue generado por gente anónima o gente anónima lo está compartiendo, aparece de forma diferente en la interfaz de usuario en sí misma. Instantáneamente, cuando Bob lo está mirando, sabe que está en una categoría diferente de fiabilidad, es anónimo y sin verificar. No hay chequeo de hechos involucrado aquí, nadie está queriendo avalar esta información particular. Puedes tener esto en la granularidad de la experiencia de compartir, para la propagación de noticias, por ejemplo con Alice, puede tener diferentes maneras de compartir, podría decir “compartido sin verificar”. Y lo que esto básicamente significa es que “yo no avalo esto, no lo he investigado yo misma, no estoy dispuesta a poner ningún peso de reputación detrás de esto”. O podría decir “compartir y avalar”, por ejemplo podría firmarlo con su DID, y quizás hay alguna noción de moneda social dentro del sistema y está dispuesta a poner algo de esa moneda social en riesgo si resulta que es falso, así que eso es dinero. Incluso puedes tener un límite de precio, donde tiene que solucionar alguna especie de prueba de trabajo, quizás utilizar un VDF y solucionar eso, para crear algo de peso detrás de eso, primero para frenar la propagación de cosas y también para decir “hey, hay un gasto real para compartir este tipo de información particular”. También puedes compartir con una historia, puedes hacer cosas como agregar metadatos para hacer esto, por ejemplo, no creo que este artículo sea completamente cierto, hay ciertas cosas que yo como experto en el dominio estoy al tanto que no están mencionadas aquí y obviamente está sesgado. También puedes compartir con solicitudes, y ahí es donde dices “hey, hay algo que falta aquí, y quizás muchachos pueden ayudar a completarlo”, por ejemplo quizás podemos hacerlo con investigación de multitud. Por ejemplo, el otro día vi un artículo, y se veía legítimo, pero todavía no lo había verificado, era un pueblo en Massachusetts que aparentemente prohibió de su currículum la Odisea, sería una cosa profundamente preocupante e inquietante, y me hubiera encantado tener esta opción aquí de compartir con una solicitud de multitud. Donde yo hubiera podido pedir a la gente que venga, comente y me de la historia completa, decirme un poco más que lo que me dijo el artículo. El artículo se ve creíble, pero no sé mucho de la publicación en sí misma y no sé si estoy obteniendo una historia muy sesgada, hay cosas alternativas.

Esto sigue, sigue, sigue y sigue, hay muchas opciones diferentes que tienes cuando hablas de compartir cosas. Y vuelve a “¿estás compartiendo conceptos e ideas anónimos, sin verificar?, ¿estás preparado para poner tu identidad, reputación en esto?, ¿qué estás preparado para avalar para la cosa que estás compartiendo antes de que vaya a Bob? Esa es una dimensión, cuando Alice ya sea que crea algo, o encuentra algo y quiere propagarlo a través de su red social, puedes construir pesos, metadatos, desafíos y otras historias detrás de ello. Nada de esto fue realizado hasta este momento, en las redes sociales más modernas, lo cual es extraordinario para mí. Porque esto solo, propagaría la difusión de información errónea, desinformación y otras cosas como esa. También puedes gamificar la habilidad de curar y llegar a la verdad acerca de las cosas, especialmente cuando comienzas con comentarios de la multitud para las cosas. Por ejemplo, puedes tener lo que se llama “emparejamientos sesgados”, quizás es incluso más correcto llamarlo “tupla sesgada”. Y de lo que eso se trata, digamos que tienes un artículo muy sesgado de CNN, que tiende a significar liberal estos días. Bueno quizás en ese mismo tema, puedes emparejar eso con algo de Fox News, ahora tienes dos puntos de vista, y puedes llamarlo tupla porque quizás puedes hacer noticia uno, noticia dos, todo el camino, de hecho puedes emparejar información junta. Ahora, lo que puedes hacer, si tienes un lado monetario de las cosas, alguna clase de token dentro del sistema. Puedes dar incentivos a la gente para enlazar noticias juntas. En vez de sólo tener un artículo, tienes un gráfico de noticias, tienes tu artículo en relación a muchas fuentes de noticias relacionadas, que a su vez están relacionadas con sus propias fuentes, y estos vértices, tienen sus propios pesos, acerca de cuál es la naturaleza de la conexión, puedes construir una base de datos de gráficos cada vez que un artículo de noticias es compartido. Lo que ocurre cuando Alice está compartiendo algo, si estas cosas son pre existentes, lo que puedes hacer es mostrarle de antemano, el gráfico de conocimiento acerca de dónde se sienta su artículo, en relación con muchos otros artículos en todo el conjunto. Y lo que es realmente agradable es que si tienes una buena manera de analizar la semántica de las cosas, puedes comenzar a utilizar inteligencia artificial, y un montón de estas diferentes cosas, y encontrar algunos temas comunes, y tendencias, y otras cosas. Y también puedes obtener una noción de poca profundidad de entendimiento. Estamos comenzando a ver esto en ciertas redes sociales, donde te preguntan “¿realmente leíste el artículo?, antes de que lo twitees. Bueno, si es un artículo de cinco mil palabras y pasaste tres segundos en él, probablemente leíste el título, realmente no tienes un profundo entendimiento de ello, o el gráfico donde esto vive, etc. Puedes crear recompensas para que la gente empareje ideas juntas, especialmente diferentes puntos de vista, y construir gráficos de conocimiento, y hay todo tipo de automatización que podemos construir, y ser capaces de predecir si de hecho entendimos lo que leímos, y también la relación de lo que leímos con otros elementos de conocimiento. Así que es una técnica y herramienta súper poderosa, y esto sólo moderaría tremendamente a la gente, ¿por qué?, porque tienes flujo de ideas. Tenemos este concepto de sesgo de confirmación, y tenemos este concepto de gente viviendo en cámaras de eco. Así que el problema es que la gente sólo va a asociar, si se deja a sus propios dispositivos, con gente con ideas de alguna forma similares a las de ellos mismos. Y la gente, en promedio, no siempre, pero la mayoría de la gente, cuando se los deja a sus propios dispositivos, activamente buscará información para confirmar sus sesgos, versus información de lo contrario. Todos hacemos esto, no importa lo bueno que seamos y pensemos que no lo hacemos, este es un sesgo cognitivo estándar, lo ves mucho con el movimiento anti vacuna, lo ves mucho con docenas de esfuerzos humanos. Si comienzas con un punto de vista de que alguien es malo, o algo ocurrió, activamente ignorarás información contraria. Por ejemplo, las alegaciones de fraude electoral, nada que haga el gobierno de USA, ninguna investigación en la que se embarque el gobierno de USA será vista como creíble. Puedes tener una comisión bipartita que se junta, puedes tener jueces retirados que vuelvan del retiro, que no son de partidos, y conducir grandes investigaciones, puedes hacer todo tipo de cosas. El problema es que el tipo pensamiento conspiracional que está envuelto alrededor del fraude electoral está hecho de tal forma, que las mismas instituciones que conducen la investigación se asume que son corruptas. Así que cualquier información que produzcan será ignorada y cualquier información que muestre su corrupción será sobre enfatizada, y creas un bucle de retroalimentación, que vuelve a la gente más y más radical y más y más determinada en la existencia de una conspiración. Y luego, cuando la gente se opone a ello, incluso si esa gente previamente era de confianza, serán exiliados, excomulgados porque han sido cooptados o corrompidos. Y esto se relaciona estrechamente con el efecto Dunning Kruger, donde la gente básicamente cree que sabe más que lo que realmente sabe y les dá un falso sentido de seguridad, de repente todo el mundo sabe acerca de la ley Benfor, de repente todo el mundo es un estadista y saben cosas que son estadísticamente imposibles y tienen experiencia en dominios en los que en realidad no conocen, de repente todo el mundo es un experto todos los sistemas electorales alrededor, y todo el mundo sabe cómo funciona la máquina de votación, dónde están las máquinas de votación, los estándares de auditoría de las máquinas de votación están mal porque vieron un video sobre algo con contexto limitado. Esa es la propagación de información errónea, y porque está hecha en una cámara de eco y no hay contrapeso para eso, crea radicalización. Y puede ser realizado para cualquier cosa, aquí es de donde viene la limpieza étnica, de donde viene el racismo rampante. Si la gente es racista, digamos en contra de los latinos, son muchos más propensos a compartir artículos acerca de MS 13, son mucho más propensos a compartir artículos acerca de las consecuencias negativas de la inmigración ilegal. Ciertamente es un problema social y ciertamente hay problemas ahí y se debe lidiar con ellos, pero son mucho menos propensos a compartir un artículo acerca de una positiva que ha ocurrido, digamos que un inmigrante ilegal saltó de un puente y fue al agua para salvar a un niño de ahogarse, verán ese artículo, ni siquiera lo compartirán, estadísticamente hablando, han habido miles de estudios acerca de esto, en las principales universidades, que pensaron acerca de esto durante los últimos 20 años para mostrar estos sesgos en funcionamiento. Es por lo que es tan increíblemente importante que realices emparejamiento de sesgo y tengas tuples para asegurar flujo de ideas. Así que siempre que algo sea compartido, el sistema debería crear incentivos para que la gente activamente busque puntos de vista opuestos o puntos de vista más matizados y compartirlos juntos como un par, o construir un gráfico de conocimiento. Si hay ausencia de ello, y notas que la gente sólo la misma información una y otra y otra y otra vez, los algoritmos del sistema deberían indicar que hay una falla dentro del sistema.

Enlace a la Parte 2 de 3

1 Like