🇪🇸 Recursos y 1 a N para el Consenso | CH 8 Jun 2021

:es: Transcripción al español de “Resources and 1 to N for Consensus”

Publicado en el canal de Youtube de Charles Hoskinson el 8 de Junio de 2021

Enlace a la versión doblada al español


Hola a todos, este es Charles Hoskinson, transmitiendo en vivo desde la cálida y soleada Colorado, siempre cálida, siempre soleada, a veces Colorado. Mis disculpas por llegar un poco tarde a la transmisión en vivo, hubieron algunas dificultades técnicas, luego tuvimos una visita inesperada en la oficina, me agarró justo cuando estaba por hacer clic en “transmitir”. No me di cuenta que la transmisión en vivo ya estaba conectada a Youtube, pensé que sólo estaba en la habitación de espera para iniciar la transmisión en vivo, realmente no estaba al tanto que ustedes muchachos estaban esperando tanto, así que mis disculpas por eso.

De todos modos, quería hacer un video, porque en la parte trasera de la conferencia Bitcoin de Miami a la que asistí, no podía creer el nivel de desinformación, FUD y maldad viniendo de un montón de maximalistas en la comunidad Bitcoin, acerca de las cosas que hacemos en el lado del mundo de prueba de participación. En este punto creo que ya no es posible tener una conversación con nadie en ese círculo, simplemente ahora son parte de una religión. El punto de este video es discutir un poco acerca de cosas básicas que parecen estar completamente perdidas, y hablar un poco acerca de cosas que nosotros estamos haciendo en el espacio, relacionado con el consenso. Como muchos de ustedes saben, los motores de las criptomonedas, las cosas que transforman un estado al próximo estado, el próximo estado, es el algoritmo de consenso. Así que lo que ocurre es que tenés esta gran red descentralizada de nodos y conexiones, las transacciones están ocurriendo todo el tiempo, la información está fluyendo todo el tiempo, de alguna forma tenés que ordenarlas a todas, de manera significativa. Este es un problema muy clásico en sistemas distribuidos, es algo que ha sido discutido y pensado por bien más de 40 años, así que es un muy viejo problema, no es algo que mágicamente fue descubierto e inventado por Satoshi, había documentos en 1960 y 70 discutiendo este problema. Al principio de la existencia de las computadoras, la gente comenzó a darse cuenta que cuando las computadoras están en diferentes ubicaciones, la percepción del orden de los eventos son muy difíciles de comprobar sin designar a un tercero de confianza, para que se ocupe de ello.

Así que la prueba de trabajo es sólo un motor, que básicamente te permite tomar decisiones acerca de quién decide la serialización para ese momento, que actualiza el sistema, ese bloque, el latido del corazón de una blockchain es un bloque, cada vez que sale un bloque late el corazón, se aprueban las transacciones. La prueba de trabajo es sólo un tipo de motor. Así que hablemos un poco de esto. Lo que hace a este video emocionante es que de hecho vamos a hablar acerca de dónde va el futuro, creo que esto algo que realmente no se discute mucho. Bien, esto de aquí, si todos pueden ver mi bonita pizarra negra, ya sea que seas prueba de trabajo, este es un color loco, vayamos a blanco que es más fácil de ver, ya sea que seas prueba de trabajo o prueba de participación, tenemos las mismas tres cosas que ocurren. Uno, tenés que escoger a alguien para que esté a cargo, para ordenar todo lo que vaya dentro del latido del corazón del sistema, el bloque. Dos, de hecho tenés que hacer latir el corazón, osea hacer el bloque. Y tres, la red tiene que aceptar el bloque.

La prueba de participación y la prueba de trabajo, básicamente son idénticas en el paso dos o tres, en que podés poner un sistema de prueba de participación en Bitcoin, Ethereum y otras cosas, de hecho no vas a cambiar las reglas del libro contable, o los predicados de validación, toda la clase de cosas que van dentro de aceptar si algo es real y legítimo. Donde difieren es aquí, ¿cómo elegís a alguien para que esté a cargo? Ambos utilizan diferentes nociones de recursos, utilicemos ese término, recurso. En el caso de prueba de trabajo esto está basado en hashes, ¿cuántos hashes por segundo podés hacer? En el caso de prueba de participación está basado en la titularidad de un activo. El recurso varía pero el concepto es básicamente el mismo. Si controlás digamos el 25% de la cantidad total de hashes por segundo, del total del ratio de hash en tu sistema de prueba de trabajo. En promedio, el 25% del tiempo, vas a ser seleccionado para estar a cargo. Ahora, ese no es siempre el caso, a veces es el 18%, el 35% de las veces, pero en promedio, lo graficas a través de un largo período de tiempo, los números se agruparán alrededor del 25% de las veces. Y es lo mismo para la prueba de participación, si posees el 25% del sistema, en promedio, el 25% de las veces, vos serás, o la gente que designaste como apoderados, a quienes delegaste, estarán a cargo y de hacer bloques.

El punto de este video es decir “espera un segundo aquí, esto es sólo un recurso”, ¿y adivina qué?, podés combinar estas cosas juntas. En 2011 había una criptomoneda llamada Peercoin, ¿se acuerdan de eso muchachos?, la cosa Sony, de hecho era un protocolo híbrido de prueba de trabajo y prueba de participación, que de hecho significaba que no tenía un único recurso, pero de hecho tenía dos recursos. Así que la gente podía minar, y debido a la titularidad de la red también podía ser elegido para hacer un bloque. Y había algunos mecanismos dentro de Peercoin para trabajar sobre ello. En 2016 hubo un protocolo que salió a continuación por Hung Chang y Alex Cherpinoy llamado Twinscoin, que de hecho intentó mejorar ese modelo. Todavía hay un montón de pensamiento y trabajo en cómo vas de un recurso en el sistema, para decidir quién está a cargo, a dos recursos, a eventualmente N recursos.

Tenemos una blockchain, en cada uno de estos slots producirá un bloque, y hay un signo de pregunta respecto a “bueno, ¿quién va a hacer eso?, porque hay una expectativa de que un bloque será realizado con un grado de regularidad, en Bitcoin son 10 minutos en Cardano son alrededor de 15 segundos, más o menos, a veces más a veces menos, tratamos de mantenerlo sincronizado, y cada versión de Ouroboros tiene una diferente opinión acerca del ratio en el que vienen, pero de todos modos. Podés decir que sólo un recurso decide eso o dos, N, muchos recursos deciden esto. ¿Por qué querrías hacer eso? Cada pool de recursos viene con una filosofía detrás. Así que si estás eligiendo recursos del lado de prueba de trabajo, entonces estás haciendo suposiciones acerca de la habilidad de los ASICs, estás haciendo suposiciones acerca del costo de energía, suposiciones acerca de conocimiento, experiencia en el dominio. Es muy fácil para una persona delegando en Cardano, es un recurso virtual, que puede ser movido a cualquier lugar en el mundo, es muy difícil para la gente construir un centro de datos de 200 millones de dólares, y ejecutar ese centro de datos. Así que hay distintas expectativas acerca de estas cosas, para la prueba de participación estás creando la expectativa de que alguien de hecho tiene la habilidad de comprar Ada, que existen mercados, y que esos mercados son relativamente descentralizados, siempre hay un vendedor para un comprador, para básicamente obtener algo de titularidad sobre ese recurso virtual. También estás realizando suposiciones acerca del nivel de veracidad, honestidad, credibilidad de la gente que controla estos recursos. Con el minado asumis una mayoría honesta, con un sistema plutocrático, como un sistema de prueba de participación, supones mayoría honesta. Y los incentivos para la honestidad son diferentes, en el sistema de prueba de trabajo el incentivo para la honestidad es que si hundís el token, entonces tus mineros decrecen en valor si sólo podés utilizarlos en ese token. Al principio eso fue cierto, hasta cierto punto, para ASICs y otras cosas como esas construidas para Bitcoin, podías minar otras cosas que eran similares, pero los márgenes de ganancia eran significativamente más pequeños. Pero cuando ves cosas que tienen los mismos algoritmos, el ratio de trabajo es relativamente el mismo, el precio es relativamente el mismo, de hecho tenés incentivos perversos para hacer lo que se llama un ataque gold finger. En el caso de la prueba de participación posees el sistema, si el precio disminuye dramáticamente, de hecho estás sacando valor de tu propio bolsillo. Excluyendo los derivados, venta en corto y otras cosas, esa parece ser una suposición racional pero se podría romper en ciertos casos.

En el esfuerzo de resistencia, el objetivo de ir de un recurso a N recursos significa que tu sistema, en general, es más dinámico. Porque estás obteniendo tu seguridad, tu producción de bloques, de más de un pool potencialmente. Pero hay una muy difícil pregunta acerca de cómo unis estas cosas. De hecho resulta que el documento Twinscoin tuvo algunos problemas con ello, intentar crear sistemas híbridos de prueba de trabajo y participación es un poco más escurridizo. La otra cosa es que tus recursos no tienen que estar conectados a algo dirigido por computadora, o un modelo dirigido por la posesión. En muchos casos ustedes muchachos escucharán cosas como prueba de mérito. Es el concepto de, y hay muchas variaciones de él. Pero básicamente la idea es que alguien hace algo beneficioso, llamémoslo Bob, por tu criptomoneda. La mayor cantidad de cosas buenas que hace Bob por esa criptomoneda, y vamos a poner eso entre comillas, porque quién demonios sabe qué son las cosas buenas, obtendrá alguna clase de token para eso, y ese token representa un recurso. Así que identificar las cosas buenas, una manera justa de distribuir eso, de hecho es un problema de investigación en curso que es realmente emocionante, sexy, genial, y también, ¿cómo te aseguras que Bob es real, versus a un robot, el robot Bob?, ojos láser. Eso es lo que se llama resistente Sybil.

Así que hay otros recursos que ustedes pueden tener muchachos, por ejemplo, digamos que tu blockchain se está volviendo realmente grande, realmente pesada, la totalidad de esto, si sumas tu blockchain, zoom aquí, ahí vamos, sumas la blockchain, sumas toda la cosa, y eso es igual a, no sé, 8 exabytes. Una cantidad gigante de datos está ahí, ¿quién va a almacenar eso?, quizás podés hacer prueba de almacenamiento. Y hay algunos geniales protocolos como, por ejemplo, Permacoin, es una con la que estoy familiarizado, pero hay cosas que vienen desde ese momento Chia es otra, el ecosistema está tratando de resolver maneras de conectar historia a una blockchain, pero, ya sabes, ese podría ser otro recurso. En vez de ser poder de hash podría ser espacio en el disco duro.

El nombre del juego, una vez que tenés una fuerte base teórica, es decir “bien, vayamos de 1 recurso a N recursos”, y luego seleccionas ese pool de recursos, para ser una composición de poder computacional, una composición de poder social, cosas socialmente buenas para el sistema, cosas como almacenaje, también podés pensar en capacidad de red por ejemplo, ahora par a par y realys en todas las criptomonedas, al menos en la mayoría que conozco, no incentivan al relay de información en la red. Y también titularidad, básicamente poseer los tokens dentro del sistema. De hecho podés crear, hay otros ejes por los que podés ir, todos estos son candidatos para recursos que el sistema puede tener, que te permite traducir ese número uno de ¿quién hace el bloque?. Realmente es un acto de balanceo, creas tus escalas, se tiene que balancear un poco, querés asegurarte que ninguna parte de este rompecabezas está sobre representada. Lo que querés tener es una situación donde básicamente cada constituyente tiene una voz, y se mantienen a raya entre sí. Por ejemplo, si sos anti plutocrático, realmente odias la titularidad del sistema, los componentes sociales podrían estar sesgados hacia los pobres del sistema, eso significa que tu titularidad, tu pluto, y tu social, están balanceados, osea que los ricos están representados, y los pobres están representados. Si tenés un montón de recursos computacionales pero estás limitado en almacenaje y red, ciertamente podrás ejecutar aplicaciones pero no podés transmitirlas, todo se almacenará fuera de cadena, así que quizás tengas que mantener esas tres cosas balanceadas entre sí. Es un problema realmente genial para estudiar, es algo en lo que hemos estado pensando mucho, realmente el primer paso para solucionar este problema es yendo de uno a dos, ese es el problema realmente difícil, luego de 2 a N es mucho más fácil, asumiendo que tenés buenos protocolos para cada una de estas categorías. Así que de hecho estamos pensando en estilo de sistema de prueba de participación y trabajo, estamos examinando cómo haríamos eso en la práctica, más tarde este año estaremos publicando un documento, específicamente sobre eso. Pero nuestro objetivo es ir de dos a N, una vez que sabemos cómo hacerlo para cosas arbitrarias, es sólo una cuestión de cómo estos protocolos se componen entre sí. Así que en criptografía hay algo llamado GUC, composición global universal, es una manera de mostrar que cuando agregas estas cosas las pruebas no se rompen, el sistema continuará balanceado. Esto será una gran agenda de investigación para Cardano 2020 a 2025. Realmente Cardano 2020 fue acerca de decir, “construyamos el mejor protocolo de prueba de participación que el mundo jamás haya visto”, la piedra angular ahí es lo que estamos haciendo con Omega, es el mejor de su clase, es el motor más rápido que podés conseguir, es la Ferrari de los protocolos de prueba de participación, mi preferencia es protocolos de prueba de participación Lamborghini, es muy muy bonito.

Pero, eso sólo representaría un constituyente, al igual que el minado sólo representa un constituyente en el ecosistema, así que el objetivo es que eventualmente necesitamos movernos hacia más constituyentes, tenemos que tener la gente que vota, y la gente que está trabajando todos los días, evangelizando Cardano, desarrolladores, y otras personas como parte de esa conversación, dándoles acceso a esos recursos. Y por cierto, esos recursos pueden ser delegados, esos recursos pueden ser fungibles, o no fungibles, significando que esos recursos pueden ser estandarizados, pueden ser permanentes, o pueden ser temporarios. Así que por ejemplo podés introducir la idea de una moneda social pero expira en treinta días. Podés introducir la idea de un token de red, pero es sólo utilizable por un cierto grupo de actores, quizás es permanente. Siempre mezclar y juntar las políticas monetarias de estos diferentes recursos dentro del sistema para representar el objetivo de este tipo de cosas. Esto es en lo que hemos estado pensando hace mucho detrás de escena, luego de que Omega esté hecho, será como la próxima generación de eso, yendo de 1 a N, construyendo los modelos económicos para este tipo de cosas, creando un montón de estas pruebas de ejes, para cada aspecto del sistema que necesita ser incentivado de cierta manera. Lo que es genial es que la comunidad puede tomar decisiones acerca de cómo hacer eso, podés dejarlo como un sistema plutocrático, ser puramente prueba de participación, correrá para siempre de esta manera, si vos crees que esa es la mejor manera de hacer las cosas, o podés mezclar, juntar y decidir cuán grande querés que sea el conjunto N, qué pesos hay ahí, porque ahora con prueba de trabajo y participación la idea es que tendrás un bloque de prueba de trabajo y un bloque de prueba de participación, luego un bloque de prueba de trabajo, luego un bloque de prueba de participación, es como un peso igualitario. Pero no tenés hacer eso, podés hacer prueba de participación, de participación, de participación, prueba de trabajo y luego de participación, de participación, de participación, de trabajo. Podés pesarlos de manera diferente, estos recursos también pueden ser pesados de manera diferente, quizás sobre sesgar habilidad computacional, podés sobre sesgar habilidad social, etc. El mecanismo de peso va a ser una cosa realmente divertida de pensar post Omega.

Sólo quería hacer un video sobre este tema particular, porque creo que es el tema menos comprendido entre los maximalistas. Lo que básicamente han decidido es que toda esta imagen no importa, cualquier prueba de X es una estafa, fuera de una muy particular prueba de trabajo, todo lo demás está equivocado, cualquier innovación en estas líneas simplemente no funciona. Hay evidencia abrumadora contra eso, hay publicaciones revisadas por pares en contra de esto. Hay sistemas corriendo activamente con 50 billones de dólares de valor, actuando como contra ejemplo a eso, simplemente no importa. El problema con el consenso Nakamoto, la prueba de trabajo que utiliza Bitcoin, es que tenés que utilizar una gigantesca cantidad de ASICs aquí, en el caso de energía, es muy costoso, y debido a que gastaste tanto ahí, tenés menos para optimizar alrededor de aquí. Y la mayor cantidad de estas cosas que puedas hacer, lo más rápido que puedan ser, podrás tener más TPS, el sistema puede tener más usuarios. Así que esto es súper costoso, saca todo el aire. Primero vas a centralizar la red, la cantidad de gente que puede hacerlo, los expertos en el domino que pueden hacerlo, continuarán volviéndose más competitivos a medida que sube el precio, y menos aquí. En el mundo de prueba de participación esto es como súper fácil, a nadie realmente le importa, aquí es donde está todo el foco, aquí es donde ocurre la fragmentación, todas estas cosas.

Podés modificar otros algoritmos de prueba de trabajo para hacer todas estas cosas como más holísticamente, por ejemplo hay un hermoso protocolo que promovió Viswanath, llamado Prism, a no ser confundido con nuestro sistema de identidad, hay una colisión de nombre ahí. De hecho es capaz de acelerar Bitcoin con Prism, como sistema de prueba de trabajo fragmentado, hacerlo 10 mil x más rápido que Bitcoin, con prueba de trabajo pura. Es un documento realmente genial, si gugleas Prism Proof of Work, es uno de los primeros resultados que aparecerá.

Así que hay toneladas de innovación que podés hacer, pero luego de hecho tenés que cambiar al algoritmo subyacente, desafortunadamente asistiendo a la conferencia en Miami, nadie quería ni siquiera hablar de eso, ni siquiera podemos hablar de NiPoPoWs ahí, es un culto, incluso alguien me tiró un rollo de papel higiénico, que decía moneda de porquería en él, así que una muchedumbre animada, muchedumbre divertida. Pero considerando todas las cosas, la caravana avanza, la innovación continua, es muy emocionante ver que estamos llevando a estos protocolos de tercera generación a donde tienen que ir. Omega será un hito principal, creo que también tendremos otro hito principal con Ethereum 2, será divertido. Obviamente Algorand continua evolucionando, y sólo entre esos tres esfuerzos, creo que básicamente vamos tener un pico y tener la mejor versión de prueba de participación, al menos por los cinco a diez años. Y luego es menos acerca de optimizar esos algoritmos por propiedades de seguridad, y será más una pregunta acerca de qué recursos queremos tener, y los protocolos de cuarta generación serán los que tienen N recursos, y tienen un conjunto de control mucho más balanceado para el sistema y su evolución, va a ser muy divertido ver cómo se ven esas políticas monetarias.

Bien, espero que este video haya sido útil para todo el mundo, de nuevo, disculpas por la espera, no estaba al tanto que estaba sentado en el lobby por toda una hora. Con suerte tengamos más conversaciones acerca de esto. A medida que comenzamos a publicar documentos, especialmente el protocolo híbrido de prueba de trabajo y participación, eso abrirá la conversación acerca de cómo vas de dos a N. Luego es sólo una cuestión de construir pruebas de ejes correctos, medir, balancear esas pruebas de ejes entre sí, para un sistema más resistente y holístico.

Una última cosa, en biología tenemos este concepto de especialización, auto diferenciación, sistemas heterogéneos, tenés tejido nervioso, tejido del corazón, tejido de piel. Cada uno de estos tejidos hace diferentes cosas. Todos comienzan del mismo origen, y los organismos más simples son los unicelulares, pero muy rápido aprendés que si querés hacer más y tener más complejidad, y de hecho ser útil, como tener vista, cognitividad, vivir largos períodos de tiempo, tener un sistema inmune para protegerte de otros organismos, necesitas tener especialización de células. Las criptomonedas no son diferentes, Bitcoin fue construido como un sistema homogéneo, y nos estamos moviendo de homo a hetero, significando que diferentes nodos hacen cosas diferentes, y diferentes actores. La prueba de participación, por ejemplo, lo que la hace funcionar tan bien es que tenés que tener establecida tu delegación, esta es la gente que mantiene los recursos, y tenés los operadores de stake pool. Los SPOs son diferentes físicamente, tienen nodos completos, corren toda la red, corren relays, corren 24/7, usualmente tienen fuertes computadoras, etc. La gente aquí abajo, simplemente pueden tener un teléfono celular, simplemente pueden ser un usuario Yoroi, pueden ser un exchange, o algo así. Pero ya vimos algo de diferenciación entre estos dos, pero tienen el mismo ADN, ejecutan el mismo protocolo, y técnicamente podés restaurar el protocolo desde ese ADN, al igual que tu DNA está en una célula nerviosa y tu ADN está en una célula del corazón, etc, hipotéticamente podés reconstruir un organismo entero a partir de ahí.

Pero lo que ocurrirá con el tiempo es que las criptomonedas serán construidas con muchos diferentes tipos de tejidos, y cada uno de esos tejidos servirá a diferentes roles, y todo el sistema, sistema complejo, tendrá unas propiedades emergentes, que los organismos unicelulares simplemente no tendrán. Esa es la próxima generación, es identificar todos esos diferentes tipos de tejido financiero que podemos construir. Y como que ya podemos ver eso con el espacio DeFi, donde los protocolos DeFi de alguna manera son una extensión del sistema, una especialización del sistema, y tienen sus propias unidades de cuenta, Uniswap tiene sus propias unidades, MakerDao, etc, y los sistemas complejos básicamente cablean todo junto, así que ahí es a dónde vamos con todo esto, ese es realmente el punto de estos sistemas, estamos tratando de construir un ecosistema que es resistente y capaz de lidiar con los problemas de hoy y mañana, pero sin control centralizado. Y si pensás en un organismo humano, un sistema biológico complejo, realmente no hay una noción de la célula dios que ejecuta todo. Tu cuerpo es descentralizado en ese sentido, tenés especialización a través de todo el sistema, pero el sistema tiene que estar en homeostasis, los diferentes componentes tienen que trabajar y conectarse entre sí. No es el caso de que si remuevo una única célula de corazón o de cerebro de repente el sistema morirá. Pero si remuevo demasiado de una cosa, entonces el organismo muere, porque hay interdependencia en el sistema más allá de todos los tejidos conectivos. Y ahí es a dónde vamos, y si está correctamente balanceado, y tenés una buena representación de los recursos, entonces el sistema será bastante resistente, ese es el objetivo final. Muy bien, hasta la próxima a todos, muchas gracias por mirar, escuchar, me divertí mucho haciendo este video, espero que ustedes muchachos se hayan divertido mirándolo, saludos.