Traducción al español de “Decentralizing social media: a conversation with Ben Goertzel and Charles Hoskinson”
Publicado por Eric Czuleger en el blog de IOHK el 4 de Febrero de 2021
Enlace a la versión doblada al español
Las mentes detrás de SingularityNET y Cardano se unen para explorar una visión del futuro de la descentralización, la IA y los medios sociales.
A finales de 2020, anunciamos nuestra colaboración con SingularityNET, en una charla exclusiva entre Charles Hoskinson y el fundador y CEO de SingularityNET, Ben Goertzel.
SingularityNET compartió recientemente más información sobre la asociación cuando anunciaron su emocionante iniciativa de la segunda fase, que incluye un cambio de Ethereum a Cardano, para lograr nuevas funcionalidades de la red y el lanzamiento de una corriente de nuevos tokens AGI-ADA.
La semana pasada, Charles y Ben se sentaron de nuevo juntos en un podcast especial de SingularityNET. En una amplia discusión, la pareja explora los medios sociales descentralizados, la colaboración de Cardano, y cómo una tecnología de IA general benévola podría ayudar a un discurso social más saludable.
Aquí, en esta lectura larga exclusiva, hemos transcrito toda la conversación para que la disfrutes y la saborees.
Ben Goertzel: Muy bien. Es un placer charlar una vez más, Charles. Y pensé que sería increíble tener una discusión al aire sobre el tema que ha estado en la mente de tanta gente recientemente, que es la importancia quizás crítica de la descentralización para los medios de comunicación social y las redes sociales, porque esto es algo que ambos hemos estado pensando profundamente durante mucho tiempo y hemos estado avanzando hacia la acción durante mucho tiempo de nuestras propias maneras, tal vez el giro de la IA y tú con Cardano y blockchain. Pero ahora las cosas parecen estar llegando a un punto crítico y el mundo parece estar repentinamente preocupado por el hecho de que unas pocas grandes corporaciones están programando los cerebros de todos de manera extraña. Así que, sí, tal vez sea genial empezar escuchando tu visión general del tema.
Charles Hoskinson: Sí, es una situación interesante. Así que estoy un poco en conflicto. Soy un gran libertario y los libertarios dicen: “Oye, deja que el mercado decida”. Así que cuando alguien se desplaza, decimos, “Hey, es una empresa privada. Pueden hacer lo que quieran”. Pero la cuestión es la colusión y por eso el momento decisivo para mí no fue el desplome de Trump. Dije, sí, vale el tipo violó el acuerdo de licencia de usuario final probablemente 9 millones de veces. En algún momento tienes que echar al tipo. La cuestión era la des-plataforma de Parler, porque eso era un animal muy diferente.
Así que todo el argumento fue, bueno, si no te gusta Twitter, ve a competir con él, construye tu propia red social. Eso es exactamente lo que Parler hizo. Y tenían diferentes normas de moderación. Pero entonces lo que ocurrió fue que todo Silicon Valley se reunió y se confabuló y básicamente decidieron conjuntamente desplantar completamente a Parler. Así que Amazon los eliminó, Apple los eliminó, Google los eliminó. Y si te pones en una posición de mercado en la que el 100% del mercado móvil y la mayor parte del mercado web está básicamente en la lista negra y no tienes manera de estar en un teléfono móvil para un consumidor medio, no hay manera de tener un sitio web para un consumidor medio sin ir a longitudes extraordinarias y es casi como la bahía pirata. Tienes que alojar servidores en Afganistán o algo así para escapar de ello. Eso es muy problemático. Se siente como una norma de control de los precios de envío del petróleo en el siglo 19.
BG: La apelación a la ética parece tan poco sincera, ¿verdad? Es como que puedes buscar Qanon en la basura en Google sin problemas. Entonces, ¿por qué es tan poco ético que haya basura de Qanon en Parler como parte del contenido, no?
La idea de que estas grandes empresas de tecnología están actuando por una necesidad moral para salvar la vida de todos. Quiero decir, suena muy hueco, ¿verdad? Y quiero decir, no hay duda de que algunas personas en esas empresas realmente están pensando de esa manera. Pero la alineación de estos argumentos éticos marginales con los obvios intereses de beneficio corporativo, como los que se promueven por la colusión explícita entre estos grandes jugadores. Es difícil tomarse el aspecto ético al cien por cien.
CH: En cierto sentido, se ha convertido en una tautología ética. Dicen: “No seas malvado, excepto cuando tengas que serlo”. Es una afirmación muy, muy loca en la que estas empresas dicen, bueno, estamos tratando de ser morales. Y yo digo, ‘Vale, pero nadie los eligió. ¿Y por qué están ustedes a cargo de la totalidad y el flujo de curación de toda la información?’ Creo firmemente que lo que hay que hacer es separar los protocolos que transportan la información de las interfaces que curan esa información. Y eso me parece algo mucho más natural. El problema que tenemos ahora es que la pila está verticalmente controlada por una empresa.
Así, Google no sólo cura lo que se ve en el motor de búsqueda. También controlan el motor subyacente. Y como consecuencia, pueden tomar una decisión sobre casi cualquier cosa y excluir a la gente lateralmente. Y es lo mismo para las tiendas de aplicaciones. Es lo mismo para las redes sociales. El nivel de colusión es muy problemático. Es decir, no me puedes decir que no hablaron entre ellos si todos eliminaron de plataforma a alguien el mismo día en la misma hora. Una cosa sería si fuera un proceso gradual en el que tal vez Google y dos semanas después, Amazon, algo así. Pero si todo es exactamente al mismo tiempo, entonces significa que levantaron el teléfono y se llamaron entre sí y decir, bueno, acabamos de decidir que esto no es bueno para usted.
El problema es que la descentralización no resuelve el problema de fondo del que se quejan, que es la radicalización. El problema es que la forma en que se presenta la información, está manipulando nuestros prejuicios cognitivos. Somos criaturas de prejuicios cognitivos. No importa lo inteligentes que seamos, tenemos sesgos de disponibilidad, de selección y de confirmación. Hay cientos de ellos y los científicos sociales, psicólogos y neurocientíficos, piensan en estas cosas y las cuantifican. Y si digitalizas esos sesgos y construyes algoritmos para explotarlos, lo que acaba ocurriendo es que creas cámaras de eco. Así que se crean estos silos. Todos y cada uno de esos silos son incapaces de salir de ellos. No hay flujo de ideas entre ellos. Así que todo lo que haces cuando descentralizas eso, si no resuelves ese problema subyacente es que haces que los silos sean más resistentes.
BG: Hay un problema cuando se aplican las IAs para aprender a ganar en los juegos o videojuegos, lo que es tanto un problema como un beneficio es que la IA aprenderá a hacer lo que le pidas que haga. Así que si le pides que consiga el máximo de puntos en este juego, y hay una forma de hacerlo saltándose las reglas del juego de alguna forma extraña que a ningún humano se le ocurriría, la IA explorará varias opciones. Y si funciona bien, encontrará alguna ruta para lograr la función objetivo sin tener en cuenta las restricciones implícitas que tenía sobre cuál es la forma más ingeniosa de hacerlo.
Creo que algo parecido ocurre con las empresas de medios sociales. Tienen ciertas métricas y objetivos hacia los que están trabajando. A menudo, muy, sistémicamente, internamente, ¿verdad? Es decir, quieren que la gente mire su sitio el mayor tiempo posible, por ejemplo, o quieren que gasten el mayor tiempo posible haciendo clic en los anuncios. Y pondrán mucho esfuerzo humano y algorítmico en la optimización hacia esa meta. Y entonces no podemos sorprendernos de que estos grupos de personas brillantes creen sistemas de software geniales que optimicen hacia ese objetivo, como a través de cualquier hackeo que puedan encontrar. Y esos trucos incluyen la explotación de los sesgos cognitivos humanos y la explotación de la dinámica de la adicción en el cerebro humano y todo tipo de patrones emocionales humanos. Explotando la angustia humana y la desesperación y la confusión existencial. Quiero decir que los algoritmos y los sistemas corporativos explotarán todo lo que puedan para lograr los objetivos que se les den.
Y como dices, está organizado de manera que estos organismos corporativos, que ahora son organismos híbridos de procesos informáticos humanos y digitales. Estos organismos corporativos son casi como un parásito en la sociedad moderna y están logrando su propio objetivo con bastante eficacia. Si tomas una vista de pájaro de la sociedad humana y donde queremos estar y donde queremos ir durante los próximos años, y tal vez conduciendo hacia la singularidad y la creación de IAG y todo eso. Una situación en la que estas redes corporativas de humanos/computadoras se orientan a maximizar el valor de los accionistas consiguiendo que compres cosas online y te quedes mirando su página web el mayor tiempo posible.
Es decir, que este tipo de organizaciones tengan tanto poder no es la dinámica óptima para dar forma a la mente, el corazón y el alma colectivos de la humanidad, ¿verdad? Quiero decir que está bastante lejos de donde queremos estar. Te imaginas que el extremismo, el aislamiento y el tribalismo, que estamos viendo en línea y en la vida real, creo que es probablemente el único rasguño de la superficie de los patrones jodidos que se están fomentando. Esa es la capa superficial en la que es fácil ver lo jodido que está. Y hay muchas otras dinámicas individuales y colectivas que están ocurriendo. Yo no diría que todo es causado por esta organización de los medios sociales en la industria de la tecnología, pero ciertamente co-evoluciona con ella y es codependiente de ella.
CH: Bueno, es una cosa interesante. Estoy de acuerdo con Max Tegmark en que primero se inventa el coche y luego el cinturón de seguridad. En el caso de las nuevas tecnologías o los nuevos procesos, los componentes de seguridad no se tienen en cuenta hasta que se han sufrido las consecuencias. Así que miramos a la industria del petróleo y el gas en el siglo 19, empezaron a perforar todos estos pozos y sólo después de que empezaron a hacerlo, empezamos a pensar en la ecología. Y dijimos, bueno, tal vez no es tan buena idea tener una perforación de pozos de petróleo sin restricciones. Tal vez tenemos que pensar cuidadosamente acerca de lo que esto realmente está haciendo con el medio ambiente.
Bueno, el petróleo del siglo 21 es realmente la economía de la atención y la economía de los datos. Y tenemos todo este capitalismo de la vigilancia y tenemos todas estas empresas pioneras y están efectivamente minando eso. Y están creando un daño ambiental social por este proceso, para usar una analogía donde estos algoritmos son construidos y estas plataformas fueron construidas para exacerbar la naturaleza humana. Así que a tu punto de que no lo causaron, pero sin duda diría que están exacerbando y -
BG: Siempre pienso en todo en la sociedad humana desde el juego final de la humanidad heredada. Como si estuviéramos trabajando en la creación de IAG. Si podemos crear una IAG benevolente, quiero decir, esto va a hacer que nuestros problemas actuales parezcan tan arcaicos y tontos. Por supuesto, las cosas no serán perfectas. Habrá nuevos problemas que no podemos imaginar allí. Pero esto es ciertamente el mayor evento umbral en la historia de la humanidad, tal vez de la vida en la tierra. Podríamos estar a unas pocas décadas de eso, incluso menos. Si hay incluso una probabilidad decente de que este punto de vista singularitario sea cierto, quiero decir que entonces la forma de la mente colectiva de la humanidad es increíblemente importante, ¿verdad?
Porque la primer IAG probablemente no va a ser sólo un humano estúpido, una mente estúpida en una caja, totalmente separada de la sociedad humana. Tal y como van las cosas, es más probable que surja de la interacción de múltiples componentes diferentes de IA hechos por múltiples partes, sirviendo a funciones económicas útiles en el mundo en general. Si la primera IA, que desencadena esta singularidad, sale de todo el desorden del ecosistema tecnológico y de la gente que usa la tecnología para hacer cosas útiles, quiero decir que lo desordenado que sea ese desorden, es algo extremadamente importante. Y que ahora mismo, la dirección no parece que el ecosistema tecnológico de la IA de Internet esté evolucionando en una gran configuración para detectar una super IAG benévola, de aquí a 5, 10 o 20 años, ¿verdad? Tal vez alguna redirección si algunas de las subredes que hay, como en las que estamos involucrados podría afectar. Alguna redirección sería muy beneficiosa.
CH: Bueno, el problema con la IAG es que es una especie de situación de Deus ex Machina en la que dices, bueno, podríamos resolver este problema si tenemos esta herramienta increíblemente poderosa. Y es como, bueno, sí, pero tal vez en realidad no necesitamos una herramienta tan poderosa para hacer un progreso significativo hacia este problema.
BG: Las redes sociales descentralizadas no necesitan IAG. En absoluto. Puedes hacer mucho con las redes blockchain.
CH: Espera. Así que creo que una solución de IA proporciona mucho valor, pero lo veo más como una muleta cognitiva. Si te lesionas la pierna, te pones muletas o caminas con un bastón o algo así. Hace poco tuve un ataque de gota y durante dos semanas estuve con un bastón. Así que es curioso. Pensamos en esto físicamente, pero para las cosas mentales, realmente no creemos que lo necesitemos. Decimos, oh, nuestros cerebros funcionan perfectamente bien. Como no, somos adictos a la dopamina. Estamos constantemente manipulados por los dispositivos digitales y estamos en una situación en la que no estamos actuando racionalmente u objetivamente la mayor parte del tiempo.
BG: Con acceso a nuestro hardware y software. No podemos arreglar los fallos de forma directa.
CH: Así que la pregunta es: ¿cuál sería el agente más simple posible, el agente inteligente que podría construirse y que podría actuar como una muleta cognitiva para alertarnos si estamos siendo manipulados o nuestro comportamiento está mostrando patrones que han sido propagados? Eso parece que sería un gran paso adelante.
BG: Ahora lo estamos entendiendo. Algunas de estas cosas que espero que seamos capaces de construir junto con un SingularityNET en la red Cardano en los próximos años. Quiero decir, si miras a los asistentes virtuales inteligentes ahora como Alexa o un asistente de Google, A: estas cosas son muy estúpidas en muchos sentidos, ¿verdad? Quiero decir, yo tengo un Google Home Max. Ponía música en mi casa y el sistema todavía no se ha dado cuenta de que nunca escucho música con voz durante el día. Es decir, no tiene esos metadatos ahí. No ha reconocido ese patrón tan simple, así que me lanza repetidamente cosas. No lo escucho. Ni siquiera es capaz de entender patrones repetidos extremadamente simples en el comportamiento humano, lo que les ayudaría a ganar más dinero, incluso mostrándome más cosas que quiero escuchar, ¿verdad?
Así que estos sistemas están optimizados muy estrechamente para servir a ciertas funciones y sus funciones ciertamente no son para ayudarnos a navegar por el universo de Internet y los medios de comunicación, de una manera que sea óptima para nuestro propio crecimiento y autocomprensión, logrando nuestros propios objetivos y optimizando la inteligencia colectiva de la humanidad. Muy, muy lejos de ello. Así que uno podría imaginar un asistente personal que tuviera un poco más de inteligencia general. De modo que entendiera al menos un poco de lo que realmente queremos y hacemos, pero que además no estuviera controlado por una mega corporación con el objetivo principal de hacerles ganar dinero, sino que estuviera controlado por nosotros, que estamos siendo asistidos por el asistente personal, ¿no?
Es decir, no quiero que el asistente personal humano trabaje para mí, ayudándome a hacer cosas cuyo objetivo principal es hacer que otra corporación gane dinero, ¿verdad? Quiero que el asistente personal humano que trabaje para mí tenga como objetivo ayudarme porque yo lo contraté para que me ayude, ¿verdad?
Y deberíamos tener asistentes digitales así y van a construir modelos de aprendizaje automático de todo lo que hacemos como un asistente humano construye su propio modelo biológico de lo que hace su empleador. Y deberíamos ser mejores que el asistente humano. Deberíamos ser capaces de inspeccionar explícitamente cuál es ese modelo y editarlo y corregirlo si no nos gusta y eliminar ese modelo si queremos, ¿verdad? Así que, quiero decir, necesitamos, entre otras cosas, agentes virtuales inteligentes que nos ayuden a guiar nuestra navegación por toda la esfera de la información de Internet, que sean seguros y descentralizados y que nos puedan explicar. La cosa es que podemos hacer eso sin IAG. Podemos hacerlo con la tecnología que tenemos ahora, y esta tecnología puede ayudar en el camino hacia la IAG.