🇪🇸 ¿Cómo Cardano puede ayudar con el problema de control de IA? | CH AMA 13 Abr 2022

:es: Transcripción al español de un fragmento de “Surprise AMA 04/13/2022”

Del minuto 00:52:39 al 00:56:40 del video original

Publicado en el canal de Youtube de Charles Hoskinson el 13 de Abril de 2022

Enlace a la versión doblada al español


¿Has considerado hablar con Ben Goertzel acerca de cómo Cardano puede ayudar con el problema de control de IA?

Hay un gran libro sobre IA y el problema de control de Stuart Thomas. Muy adecuadamente cubre el espacio de asuntos, y Open IA habla acerca de esto, hay un montón de debates de ética IA que ocurren. Pero el problema de control es que básicamente creas este agente inteligente, le estas diciendo que persiga objetivos que le has dado. Y hay como dos bifurcaciones ahí, uno, es que tenés consecuencias no intencionadas acerca de optimizar alrededor del objetivo, se llama el problema Great Glue, donde hace algo, cree que está haciendo lo correcto. Y tenés otro problema donde podría decidir que tu objetivo es sub óptimo y escoge sus propios objetivos, así que perdés control de ello, y esos objetivos podrían no tener nada que ver con la supervivencia y florecimiento de los humanos, y a menudo no lo tendrán, porque ese agente es un organismo fundamentalmente diferente.

Y los humanos argumentan por analogías, así cuando sea que tengas la introducción dentro de un ecosistema, de una especie más inteligente, generalmente esa especie tiende, porque es más capaz de lograr sus objetivos con su inteligencia, a dominar ese ecosistema, incluso si tiene una desventaja biológica, con el tiempo, asumiendo que es colectivista. Así que nosotros, los homo sapiens, de alguna manera desarrollamos la capacidad de pensamiento abstracto, y debido a ese razonamiento, fuimos capaces de aniquilar a todas las otras criaturas como los humanos, como los neandertal, etc. Así que, análogamente, si viene una IA, el agente, siendo más inteligente que nosotros, sería capaz de aniquilarnos a nosotros, si así lo desea, o dominar, o controlar. Así que, ¿cómo resolves eso?, bueno, podés llevar la IA hasta cierto punto, e intentar prevenir que evolucione más allá de ese punto, y eso probablemente no va a funcionar, pero esa es una filosofía. Otra filosofía es que ponés tu cabeza en la tierra y decís “nunca ocurrirá, nunca tendremos IAG, es una misión imposible, eso probablemente también es incorrecto. La tercer opción sería que podés enseñarle valores a la IA, este el el argumento de evolución Harare, dice que por eso es vegano, dice “cómo tratamos a las cosas que son menos nosotros será una lección para cosas que son más grandes que nosotros”, y si nos tratan de la manera en que nosotros tratamos a las vacas, no presagia muy bien, pero como somos los creadores de eso, hay algo de reverencia ahí, y se preocupan por nosotros. Pero ciertamente es un problema interesante, está más allá de mí categoría salarial, gente como Ben piensan al respecto, es realmente brillante, tiene un montón de geniales ideas. El problema es que los casos de uso de IA en este momento son para el estado espía, vigilancia de datos, optimización financiera, industria de defensa, y en todos estos casos los objetivos de los agentes inteligentes no son necesariamente muy nobles, o centrados en los humanos, en su lugar son muy codiciosos o en algunos casos violentos. Esta será la primera década donde veremos un conflicto armado, donde agentes autónomos están matando gente, sin supervisión humana, en la próxima década probablemente veremos algún sistema parecido a IAG, que tiene control sobre la vida y muerte a escala civil. China probablemente será el primero en implementar eso, con procesamientos criminales de agentes inteligentes, ya anunciaron eso. Combiná eso con crédito social, con dinero algorítmico, de hecho podrías tener una IAG regulando una economía entera, así que una IAG gestiona un banco central, etc. Es un tema fascinante, es uno que yo sigo, pero también es un tema aterrador.