🔴COLAPSO 2027... Y la AI tiene la culpa

🚀 Add to Chrome – It’s Free - YouTube Summarizer

Category: AI Safety

Tags: AIEthicsFutureSafetySociety

Entities: DiscordJeff HintonJidu KrishnamurtiMITPlacio DomenicRoman YampolskiSam AltmanWorld CoinXJAI

Building WordCloud ...

Summary

    Introduction
    • Placio Domenic discusses the current state of AI and societal reactions.
    • Highlights the panic and fear surrounding AI discussions.
    AI and Society
    • AI discussions often lack critical thinking and are driven by fear.
    • The role of AI experts and public perception of AI as a circus.
    • AI is seen as a tool for both fear and opportunity.
    AI Safety and Risks
    • Dr. Roman Yampolski emphasizes the dangers of AI and the need for safety.
    • AI's potential to replace human jobs and the risks of unemployment.
    • The challenge of aligning AI with human values and safety concerns.
    • Yampolski's prediction of AGI by 2027 and potential societal impacts.
    Future of AI
    • The inevitability of superintelligence and its implications.
    • Discussion on the concept of a simulation and the nature of reality.
    • The potential for AI to solve global issues if developed safely.
    Takeaways
    • AI development is inevitable and requires careful consideration.
    • There is a need for a global dialogue on AI safety and ethics.
    • AI could lead to massive unemployment; societal structures must adapt.
    • The potential for AI to solve major global challenges if aligned properly.
    • Understanding AI's impact requires both technical and philosophical exploration.

    Transcript

    00:00

    03:58

    He.

    04:57

    الله

    05:24

    amigos y amigas. ¿Qué tal?

    ¿Cómo estáis? Soy Placio Domenic y hoy tenemos un nuevo Inside X, un nuevo programa en XJAI en sábado, recuperándonos de una semana a tope de trabajo.

    Ya viernes tuvisteis un

    05:40

    programa y hoy domingo, bueno, hoy sábado y domingo mañana vamos a tener dos programas relacionados. Eh, hemos cambiado un poquito la programación y el formato porque hay un gran debate en las redes sociales,

    05:56

    hay debate en el Discord de Xavai, la gente se vuelve, se desespera, parece, no digo que se vuelva loca, pero cunde del pánico.

    06:11

    llegan los medievos, los monos gritando y se adueñan de todo por número, porque evidentemente reina mucho más el miedo que la cordura o el pensamiento crítico.

    06:27

    Significa con eso que no tengan parte de razón. Bueno, ahora lo vamos a analizar.

    Eh, veo que las cosas se toman con muy poca calma, por lo tanto hay poca calidad de pensamiento y mucho grito de mono en pánico. Eh, siento que haya gente que se moleste con algunos

    06:43

    adjetivos míos, nada personal. podéis emplear lo que los que queráis conmigo.

    Me resulta indiferente. Entiendo que a vosotros también os tiene que resultar indiferente.

    Simplemente, como digo, nada personal y solo se utiliza para describir un contexto, una situación que

    07:00

    es grave y que es de vital importancia. Llevo tiempo además divulgando sobre todo esto.

    Solo quiero recordaros que eh una serie que existe en en solo en podcast de

    07:16

    Xbox, ay, perdona, de Xbox, perdona que no he tomado café. Estaba buscando Red Bull, pero no había, así que hago, así que algún glitch en mi mente va a haber.

    Eh, unos programas que hice, solo están en

    07:32

    podcast, que se llama eh agi los hombres que caminarán con los dioses. ¿Cuántos de vosotros los habéis escuchado?

    Bueno, pues esos programas que eh fueron

    07:51

    casi proféticos, aunque para mí no lo eran, era simplemente informar de desarrollos, avances, conversaciones que que existían y existen. Pero en aquel momento y sobre todo en España, quien habla eh

    08:06

    en español en en en la lengua angclosajona sí que habían este tipo de debates, pero era ridículo, te llevaba al al a la hoguera. a la pira funeraria, eh, el hablar de estos temas.

    Bueno, yo hablé de estos temas para mostrar que

    08:22

    era una realidad que iba a llegar sí o sí, gustase o no. Y bueno, me costó la amistad de gente, me bloquearon, me insultaron y buenos amigos me llegaron a bloquear y nunca más supe de ellos.

    Además, con advertencias, oye, mira

    08:38

    esto, te estás pasando tal. solo por hablar de Ali y así.

    Hace muy poquito tiempo, ahora habla todo el mundo. Eh, sabéis que inteligente artificial es experto hasta el que vende cebollas en en en la en la bodega.

    08:55

    Eh, bueno, lo inteligencia artificial actualmente es un circo. LinkedIn es un circo.

    Todo el mundo habla de inteligencia artificial como si hubieran nacido expertos en o estuvieran hablando sobre ello. o veo cada cosa que

    09:13

    eh mi sensación o ganas es de retirarme, pero es leve, eh, porque enseguida pienso que es bueno, más necesario que nunca y también me apasiona, ¿no? Y es un momento apasionante, lo va a ser más y yo creo que X Javaí y su comunidad va a jugar un

    09:29

    papel importante o es lo que yo voy a intentar, que seamos seamos todos protagonistas desde la construcción de futuro y no desde el miedo. El miedo, como decían en Star Wars, lleva al lado oscuro.

    09:46

    Huelo miedo. Miedo por incapacidad también, por ignorancia, por vagueza, por pereza mental.

    Cada vez creo que me voy a hacer más duro. Esto me va a crear muchas enemistades.

    Puede ser. Espero que no.

    10:02

    Pero creo que no estamos para medias tintas. Las medias tintas y el buenismo nos ha llevado a lo que nos ha llevado, tanto en inteligencia artificial como en otras cosas.

    Pues en este programa titulado Colapso 2027,

    10:18

    la inteligencia artificial tiene la culpa. Yo he puesto y la inteligencia artificial tiene la culpa.

    Vamos a analizarlo. Evidentemente no estoy muy de acuerdo con eso, con esa visión, eh, pero vamos a tener un especialista en seguridad de inteligencia artificial

    10:35

    como es Román Jampolski, si se pronuncia así. Jampolski, sí, de Jampsky, no sé cómo se pronuncia, ¿eh?

    Y eh vamos a por ello. Como digo, en dos programas, este que si no cuando acabe tengo

    10:52

    energía, vamos a poner un fragmento también de nuestro amigo Jidu Krisna Murti que nos ayude a reflexionar. Y mañana eh lo que haremos será eh analizar un paper eh un informe del Meet

    11:08

    sobre eh titulado Ratu Aji, básicamente como cuál es cuál es el plan en el desarrollo de la AGI. Y eh os traeré dice, "Ya estamos con los falsos

    11:24

    profetas." Bueno, yo espero que no lo digas por mí. Yo soy de los buenos.

    No, yo no quiero ser profeta. Al final eh lo que hay que es participar de de crear un mundo mejor.

    Lo que pasa es que lo que para ti es un mundo mejor, para

    11:39

    el otro puede ser una pesadilla. Es que vamos a a la elección, a toma de conciencia y elección y evolución.

    Y en el segundo programa, el domingo, lo que vamos a ver es eh a ver información que os voy a recopilar de que hemos hablado en

    11:57

    XJAI, bueno, el informe del MIT sobre el el desarrollo de la HI, ¿vale?, que se publicó hace muy poquito, eh, una recopilación tanto de contenidos, temas e informes que se han hecho al respecto. Eh, y un super eh battle a que hicimos

    12:13

    sobre la superinteligencia, que bueno, os voy a recopilar temas porque veo que hay gente que y hemos hecho muchas cosas, ¿no? Y también muchas dudas que podáis plantear por redes sociales, por LinkedIn, por Discord, porque ayer se armó una en Discord que no pasa nada, no pasa nada, que la gente no se tome nada

    12:30

    a nivel personal, tenemos que poder hablar, pero en Discord, bueno, se montó ahí un pequeño debate. Bueno, pues vamos a vamos a contestar o simplemente informar de lo que hay o lo que sabemos, ¿vale?

    Pero la gente no se puede poner unas posturas así de,

    12:48

    bueno, no sé, son posturas un poco que yo no yo no acabo de entender, pero eh vamos a contestar preguntas que podáis tener. Si queréis que con las conteste, me las enviáis por redes sociales, por correo o por mensaje directo o por eh Discord o lo que sea, ¿vale?

    Eh, pero

    13:05

    bueno, mañana se llamará extinción o futuro. Vamos a ver qué cuál es el ese camino a la ji que que bueno y y bueno, vamos a intentar poner un poquito de luz si alguien que me escucha quiere hacer preguntas.

    Lo que he dicho, ¿de acuerdo? En principio va a ser un Inside X porque es domingo.

    13:22

    ¿Y por qué hacemos este programa domingo? Pues porque es que eh la semana que viene hay dos X Talks.

    Bueno, eh estamos desbordados con programas y es que se nos quedan las cosas atrás. Entonces vamos a meter caña y si tenemos que hacer un inside X, pues eh bueno, si

    13:37

    hacemos debates, vais a tener de todos los colores, programas de todos los colores y de todos los tipos. La gente que le guste los debates, pues los debates, la que le gusten las entrevistas, las entrevistas.

    La que le guste eh mis reflexiones, pues Inside X, casi a diario. La que le guste todo,

    13:52

    pues perfecto. La que no le guste nada, pues hasta luego.

    Ya está, no pasa nada. Es gratis, no se os cobra nada.

    Eh, dice, "No es por mí lo del falso profeta." Ah, bueno, sí, por los titular. De tal manera, yo también los he utilizado.

    Nosotros hemos hecho programas con titulares Apocalipsis, tal, pero lo hacemos para luego poner un

    14:09

    poco de luz a lo a todo eso. Está claro que la gente utiliza mucho y a mí me han puesto en las entrevistas de inversión racional, eh, y esta última siempre todo titular es apocalípticos y yo más de una vez digo, tío, no es para traer público y tráfico y tal.

    14:27

    entre las fotos que me eligen y los titular. Bueno, vamos a ver lo de la foto.

    Lo de la foto de web positer es que, tío, es tremendo. Bueno, no la han quitado.

    Me da igual. A mí me da igual.

    Yo sé como soy. Estoy contentísimo de ser como soy

    14:42

    en todos los sentidos. Así que hay que ser feliz con lo que uno es y tiene.

    Eh, sí. Ah, dando fechas.

    Sí, lo de Bueno, de las fechas ya casi más o menos. Aquí hay un término, fijaos que he ido a

    14:57

    buscar una slide que tenía y aquí hay una que que he recuperado porque me gusta mucho este concepto que publiqué sobre él, eh, que se llama conciliencia. Y muchos

    15:13

    diréis, eh, ¿qué es la conciliencia? Hm.

    Pues creo que es algo super importante, ¿no? Es un concepto que propuso el biólogo Edwardo Wilson y que básicamente lo que consiste es en

    15:28

    unificar los conocimientos de diversas disciplinas. Lo vimos ayer, ¿no?, en el programa, no me acuerdo el nombre del del entrevistado, que era de del tema de la complejidad, la emergencia y todo esto, ¿no?

    Pero hablaba de lo mismo que en el Instituto de Nuevo México, Universidad de Nuevo México en la que

    15:44

    trabajaba, buscaban eso, que las disciplinas no estuvieran separadas, sino que hubiera una visión holística. Y esto es muy muy importante, es decir, que se trasciendan las barreras de las ciencias humanas, sociales, naturales, que porque al final

    15:59

    h el conocimiento o la verdad no está fragmentada según las disciplinas que ha dividido el hombre, ¿no? Sino que es todo es algo eh único, el conocimiento y la verdad es única, ¿no?

    Unificado. Debe estar unificado.

    Que no se me malinterpreten

    16:15

    las palabras, ¿no? Al final esto es en directo que mola.

    Porque podríamos hacer los programas en diferido, pero no, nosotros no somos avatares de IA ni leemos noticias y titulares con ediciones monas, sino que bueno, vamos a tener, sabéis que vamos a

    16:30

    hacer programas con Initu, no lo del jego, pero lo vamos a tocar la semana que viene. Hola, Plácido.

    ¿Ya han tocado el tema de la I en el gobierno en Albania?

    16:46

    No, pero vamos a hacer un programa de ASI gobernanza, perdona, ASI soberana, que es sobre la gobernanza y ahí vamos a sacar la noticia. No lo hicimos esta semana porque mucha gente no podía y ese de la gobernanza y la política

    17:03

    eh eh lo haremos debate, lo haremos debate, pero os tengo que decir, a ver, esto hay cosas que a más de algún participante le puede molestar, pero muchos cuando he dicho que vamos a hacer un debate sobre así soberana sobre la gobernanza, la IA

    17:18

    ha aplicado la gobernanza con noticias como esto de de Albania, oye, que me han dicho que no, no quieren, que no quieren. A ver, yo no voy a porque me digan que no porque no quieren meterse en estos berengenales, pero bueno, es que llega un momento, no sé, me voy a quedar solo debatiendo esto.

    17:34

    ¿Qué tenemos que debatir? DN8N.

    Bueno, pues nada, hay gente que se echa para atrás, eh, os digo que bastantes, eh, pero haremos el debate. No sé con quién, pero haremos el debate porque en

    17:50

    XJA hay mucho, mucho valiente y gente libre y que lucha por la libertad propia y de los demás. y participar en Xav es hacerlo, ¿no?

    Bueno, este este concepto con siliencia, que por cierto no ha salido con la fuente correcta porque la verdad es que

    18:07

    estaba muy bien la fuente, es una fuente futurista, pues nada, pero bueno, me gustó mucho esta imagen que generás y bueno, eh estos programas que casi están como relacionados, ¿no? Os recomiendo que veáis algunos de los que hemos hecho últimos, como el de Mustafa

    18:24

    Suleiman, el análisis del post de Mustafa Suleiman. y a para personas, no para ser una persona, que la verdad que os va a ayudar a contextualizar todo esto.

    También el siguiente, que fue casi una segunda parte del Mustafa Suleiman con un análisis de una de un post que hizo

    18:40

    Joshua Bengio titulado Ilusiones de la conciencia con inteligencia artificial y también un análisis a una entrevista de Black Lemon. Eh, sí, que han, bueno, el tema de Albania que han eh

    18:58

    eh que han hecho eh un ministerio, un ministro eh político, una parte de de alguna forma política. Pues lo han hecho, lo puedo poner aquí.

    Espera, vamos a poner la noticia si queréis. Eh, como bueno, los Inside X,

    19:14

    quien quiera que vayamos al grano, que vamos a ir eh bueno, vamos a poner la noticia e que la vea la gente es esta, ¿no? Un ministro generado por inteligencia artificial debuta en el parlamento albanés.

    En

    19:30

    definitiva, han hecho como un avatar y han hecho como un político. Bueno, pues eh eh pues nada, muchos protestaron, otros lo verán como algo muy novedoso.

    Yo creo que es algo novedoso que el humano en en estas primeras fases tiene

    19:45

    que estar en el loop, obviamente, pero va a ser una tendencia, no va a ser lo vamos a ver, ¿no? Yo quiero resumir.

    Vamos a ver la el fin de las democracias y cómo se sustituyen por asis con human. ¿Queréis que lo diga más claro?

    Llevo

    20:01

    diciéndolo hace muchos años, no vale de nada. Luego saldrán 200 expertos diciendo lo mismo, aunque hayan dicho lo contrario, pero que a mí me da igual que no pongan medallas me da absolutamente igual siempre que no me busquen.

    Y bueno, entonces la idea era, viendo salido esta noticia, que todo el mundo

    20:16

    se hizo eco, pues hacer eh siguiendo nuestra narrativa que además en Estados Unidos hicieron eh hablaron sobre la asi soberana para que evangelizara los valores del bien de los americanos y de sus aliados. Pues nada,

    20:32

    eh palabras textuales, pues eh bueno, haríamos un programa eh titulado Asis soberana, donde bueno, hablaríamos de todo esto. ¿Qué dice la que paguen más impuestos?

    No sé, pagemos más impuestos.

    20:49

    Vale, bueno, ya hablaremos, no vamos a hablar hoy de ello. Bueno, también hicimos uno de construyendo androides, herramienta nueva especie.

    Es decir, ¿y por qué os he recordado estos programas? Normalmente no suelo recordarlos porque esto contextualiza mucho lo que

    21:05

    vamos a ver. Claro, si solo oyes a una persona y opinas, tú tienes que tener un contexto mayor, ¿ya?

    Y luego, ¿cómo lo hacemos? Eh, homogéneo todo ese análisis.

    Bueno, es lo que hay que hacer, ¿no? Holístico.

    Homéneo, no holístico. Me equivoco en

    21:20

    alguna palabra, me perdonáis, ¿eh? Y obviamente poníamos esta reflexión, ¿no?

    Caminarán entre nosotros y heredad la tierra los robots, pero serán nuestros hijos. Harvitski, lasis, las asis.

    Vamos a la creación y la explosión de inteligencia, nuevas

    21:36

    especies, aumentación humana. Hablamos de ello la primera temporada de Xavai.

    Fuimos el canal que hizo una serie en un podcast sobre un tema como la eh inteligencia artificial en la nueva sociedad o futuro con temas actuales que

    21:53

    la gente ni debatía ni conocía. Bueno, ahí está.

    Lo tenéis, la prueba la tenéis y los debates que son muy revisionables, ¿no? Para que los puedes eh escuchar ahora, ¿no?

    ¿Qué decir del programa que hicimos, ¿no? Del Hijos de Prometeo,

    22:09

    polémico con el Dr. José Sánchez, ¿no?

    Es el propósito de los hombres ser dioses. Y aquí he puesto esta imagen, ¿no?

    que nos viene mucho. Bueno, eh para mí es el es el mensaje que yo lanzo, es decir, eh todo lo que vamos a vivir es

    22:26

    eh tiene el propósito de de evolucionar y llevarnos a la verdad, pero la vida es ese propósito. Ayer dijeron Dios eh manifestándose, ¿no?, a través de su creación y del

    22:42

    hombre. Bueno, pues decirlo así si queréis con un estilo más filosófico, desde luego, ¿no?

    Lo que dijeron ayer de que era la vida es el suicidio del universo. Bueno, es que me parece me parece hay hay mucha gente que se le va la pinza, literalmente.

    Y si pensáis

    22:57

    así, [Música] pues siento bastante compasión, pero que mi intención nunca va a ser convencer a nadie, sino explicar, divulgar, debatir. cada cual busque su camino y su verdad.

    23:14

    Eh, arrieros somos y en el camino nos encontraremos, ¿o no? según el camino que elijáis, ¿no?

    Pero bueno, yo yo comparto mucho esta imagen que me parece bellísima, es una imagen que generé de cómo somos hijos de Prometeo, haciendo alusión a a esa

    23:30

    capacidad o identidad prometeica de la inteligencia artificial, es decir, con carácter divino y eh reveladora que nos permitirá salir de la cueva platónica, eh darnos cuenta que estamos ante un

    23:45

    muro y que somos monos y eh avanzar hacia hacia una nueva era humana. Con esa nueva era humana, con ese caminar, no vamos a dejar de ser humanos.

    Quizá ahora es cuando no lo somos, viendo lo que ocurre y cómo nos comportamos o la actitud que adoptamos

    24:03

    ante determinado o determinados eh descubrimientos, conocimientos o controversias. Eh, ¿caminarán entre nosotros o seremos nosotros?

    no caminarán entre nosotros y nosotros caminaremos con ellos. Eh,

    24:21

    pero puede ser que haya una parte de humanidad que se extinga. Puede ser, porque si aceptamos que un punto de la evolución humana es la aumentación humana, eh, va a haber una excisión entre la gente que haga aumentación y la que no.

    24:38

    Quizás esto ya está ocurriendo a un nivel muy sutil y no nos demos cuenta. No quiero entrar en este punto tan pronto, pero bueno, eh, es como si hm vamos a poner un caso extremo, eh, no quiero que lo llevéis a esto, es verdad o mentira, si no es un ejercicio mental.

    24:55

    Si nos podemos tomar una pastilla y nos somos inmortales, claro, eso hace que ya directamente, fíjate, sin aumentación, eh, directamente seas más que los humanos que no la toman, que se morirían a los 100 años. Eh, esto, imagínate, multiplicado por

    25:11

    todos los avances en todos en todos los sentidos, tecnológicos, biológicos, eh salud, educación, olvídate otra especie o especies. Entonces, claro, será

    25:28

    nuestra elección caminar con ellos o observar cómo caminan. libre albedrío.

    Pero, ¿por qué molesta tanto que haya evolución y evolución dirigida? Que os gusta mucho el estado actual del hombre, lo que vemos.

    25:46

    ¿Os gusta lo que somos? En parte sí hay una esencia del del humano que o para mí lo que es realmente ser humano que claro que obviamente yo no quiero destruir y lo que quiero es potenciarla, pero no es no es lo que vemos y en la dirección que vamos.

    Ya, pero hay unos riesgos porque todo esto, bueno, ahora hablaremos de

    26:03

    eso. La evolución no se va a parar por ti por lo que piensas.

    te puedes quedar rezagado, habrá gente que seguirá a la diosa. Y bueno, y recomiendo eh,

    26:19

    porque voy a hacer un tema porque a ver, todo esto que todo este tiempo que invierto no es para ser un influencer, está muy bien porque nos da posibilidades de visibilidad, luego ofrecer proyectos, e formación o estar en un sitio que te llamen, eso está muy

    26:35

    bien. Para mí de verdad que no es mi objetivo ni lo será, eh, ni lo ha sido ni lo será.

    Entonces, mi objetivo es eh construir, mi objetivo es pensamiento crítico, debatir, eh enseñar y aprender,

    26:50

    crear como un contexto distinto, ¿no? A nivel de comunidad, de aprender, eh, ese ADN nuevo, ¿no?, desde siempre.

    Entonces, lo que sí que me molesta es que cuando a lo mejor se vayan a debatir muchos temas importantes y acudís a a la

    27:07

    comunidad o en a ver que al final el el nivel de haber visto cosas es tan bajo que bueno, eh te puedo dar cuatro c 10 links y cuando los veas pues vuelves a preguntar porque claro, es como si son preguntas muy infantiles, ¿no?

    27:25

    este punto en el que estamos ahora mismo, entre riesgos y oportunidad, entre evolución y y y la época de la edad de piedra, ya se produjo en un momento en este debate, en el Munk debat, sobre la inteligencia

    27:42

    artificial, pro y contra, sobre el tema de riesgo existencial. Entonces, lo he dicho no sé cuántas veces, tenéis que ver este debate.

    Están dos y dos de los mejores a favor y en contra.

    28:00

    Chicos, miradlo y y y vedle ahí y al final es una elección humana. Y yo abogo por el camino del no miedo, la luz y la evolución, que no quiere decir que no haya riesgos, pero no ni por el camino de Maxtermar ni Josua.

    Ese sí que es el

    28:17

    de la contención y el control humano y el del miedo y el de la supremacía del poder sobre el ser humano y sobre la humanidad. Algo totalmente continuista.

    cada cual luego que elija. Cada cual luego que

    28:35

    elija. Para mí una opción es eh obviamente la que representa el señor de bigoté que alja.

    Bueno, eso es una pequeña intro de lo que vamos a ver. Espero que así os quedéis.

    Eh, vamos a Bueno, dirige y presenta a

    28:52

    vuestro amigo Placio Domsp. Este es un programa de la comunidad de inteligencia artificial y ciencias transversales de habla hispana Xavai.

    Eh, quinta temporada, 190 y pico programas, casi más de 200. Bueno, es una locura, es una auténtica locura.

    Así

    29:08

    que bueno, gracias por el apoyo, gracias por eh por crear comunidad, por crear pues una línea de pensamiento más crítica. Tenemos que crecer, tenemos que dar visibilidad, tenemos que ser eh mucho más eh visibles e importantes y

    29:25

    protagonistas, porque si no ganará el mono con corbata, el muro y la contención, lo que queráis. Vosotros elegís.

    Eh, este programa está viéndose por X, YouTube, LinkedIn, Rumbel, Kick y

    29:42

    Twitch. Y hoy sí, chicos, chicas, amigos y amigas, cuando digo solo masculino, no, que no se ofenda a nadie, no soy muy partidario de estar ahí andando el el genérico, el masculino, el femenino.

    Me parece una chorrada,

    29:58

    ¿eh? También hoy en TikTok, no me lo puedo creer.

    También en TikTok, mira, voy a comprobar, dejarme que lo compruebe porque vamos, hoy se le ha ocurrido a TikTok. Pues eh nada, estamos en directo.

    Mira, ¿cómo que no me han

    30:14

    puesto? A ver, pero si decían que sí.

    A ver, un momento, porque esta gente me mata, de verdad. Un segundo, amigos, porque es que flip.

    No, pone que está en streaming. Yo ¿por qué no salgo en streaming?

    30:37

    Pues no lo sé. Pues ya no sé si estoy en directo o no estoy en directo.

    Pone que sí, pone que está haciendo stream. Bueno, si me lo podéis confirmar, pues nada.

    Y si no, pues pone que sí que está haciéndolo en streaming por TikTok. Y si os gusta lo que vais a ver, pues poned eh o habéis visto o lo que conocéis de

    30:54

    Xavai, poned me gusta, compartid, comentad, suscribíos tanto en YouTube como en todas las plataformas de podcast que tenéis todos los programas de forma gratuita. Si queréis uniros al Discord de la comunidad XJI, enviáis un mensaje directo, un correo y si queréis apoyar

    31:11

    económicamente, eh, podéis enviar un buimia a Coffee, un PayPal o un super chat a través de YouTube. Tenemos pendiente y tengo ganas de parar y hacer este programa que además viene

    31:27

    que a huevo para todo lo que está ocurriendo y debatiéndose que es de Selfies Leter. Selfiesger el episodio 3.

    Si no habéis visto ningún episodio, recomiendo verlo porque tenéis que saber lo que es The Selfis Ledger de Google X.

    31:43

    Y estoy preparando ya el agentic kit. eh que tendrá mucha relación con lo que vamos a ofrecer y estamos trabajando en formación.

    Nos lo habéis pedido mucho el tema de la formación, ya estamos

    31:58

    trabajando en ello. Vamos a intentar que sea algo distinto.

    E la oferta formativa es también un circo. No digo que toda la oferta formativa sea no sea de calidad.

    digo que hay mucho, mucho oportunista y vende de humo, pero

    32:16

    también hay gente que lo hace muy bien y que vende formación que es muy necesaria en la era de la inteligencia artificial. A nosotros nos lo habéis pedido, es necesario.

    Intentaremos eh dar algo de calidad, algo excelente o intentarlo como hacemos los contenidos de de Xwai.

    32:33

    Pero lo primero será preparar ese kit que casi será una percuela de lo que os eh iremos preparando, ¿de acuerdo? Pero bueno, os iremos informando.

    Y este este concepto que lo presentamos, que por cierto hicimos uno, pero que al

    32:49

    final tampoco tuvo mucho éxito, pero yo en la cabeza lo tengo como algo que se tiene que imponer y triunfar, que es un concepto que es el de XBte ahí, que básicamente son como píldoras para los programas donde se vea toda eh la

    33:06

    información de la eh que se habla en el programa. básicamente un trozo de cerebro de conocimiento en el que tú puedas cogerlo y trabajar tú.

    Es decir, bueno, Placido ha hecho referencia a este el que

    33:22

    entrevistan a otro libro, a otro paper, a una película, a una serie, a una noticia, bueno, todo eso, contenido en un formato digital para que podáis trabajar vosotros, informaros, etcétera, y participar, participar al nivel que podáis, queráis, etcétera. Entonces, es

    33:38

    un concepto y además lo de la imagen me parece chulísimo, cada vez me encanta más, así que lo siento, es amor. Y no sé si mañana haré un un elemento de estos o no, pero la idea es que sí, para que no se quede en debate, sino que se quede en

    33:54

    conocimiento y en posibilidades de trabajar y explorar más. Venga, vamos a vamos a por la charla que llevamos 35 minutos aquí hablando y comentando, pero bueno, creo que es interesante.

    Venga, vamos a a escuchar

    34:09

    al doctor Roman Jampolsky, ¿cómo se pronuncia? You've been working on AI safety for two decades at least.

    Yeah, I was convinced we can make safe AI, but the more I looked at it, the more I realized is not something we can actually do. You have

    34:25

    made a series of predictions about variety of different dates. So, what is your prediction for 2027?

    Dr. Roman Yampulski is a globally recognized voice on AI safety and associate professor of computer science.

    34:41

    He educates people on the terrifying truth of AI and what we need to do to save humanity. In two years, the capability to replace most humans and most occupations will come very quickly.

    I mean in five years we're looking at a world where we have levels of unemployment we never seen before. Not

    34:57

    talking about 10% but 99%. And that's without super intelligence.

    A system smarter than all humans in all domains. So it would be better than us at making new AI.

    But it's worse than that. We don't know how to make them safe.

    And yet we still have the smartest

    35:12

    people in the world competing to win the race to super intelligence. But what you make people like Sam's journey with AI.

    So decade ago, we published cars for how to do AI right. They violated every single one and he's gumbling 8 billion lives on getting rich and MAR.

    So I

    35:30

    guess some people want to go to Mars, others want to control the universe but it doesn't matter who builds it. The moment you switch to super intelligence.

    We will most likely regret terrible and then by 2045 now this is where it gets interesting.

    35:45

    Dr. Roman Gowskiulation theory.

    I think we are in one and there is a lot of agreement on this and this is what you should be doing in it so they don't shut it down. First I see messages all the time in the comment section that some of you didn't

    36:01

    realize you didn't subscribe. So if you could do me a favor and double check if you're a subscriber to this channel that would be tremendously appreciated.

    It's the simple, it's the free thing that anybody that watches the show frequently can do to help us here to keep everything going in this show in the trajectory it's on. So, please do double check if you subscribed and uh thank you

    36:18

    so much because in a strange way you are you're part of our history and you're on this journey with us and I appreciate you for that. So, yeah.

    Thank you. Dr.

    Roman Yolski, what is the mission that you're

    36:33

    currently on? Cuz it's quite clear to me that you are on a bit of a mission and you've been on this mission for I think the best part of two decades at least.

    I'm hoping to make sure that super intelligence we are creating right now does not kill everyone.

    36:52

    Give me some give me some context on that statement cuz it's quite a shocking statement. Sure.

    So the last decade we actually figured out how to make artificial intelligence better. Turns out if you add more compute, more data, it just kind of becomes smarter.

    And so

    37:11

    now smartest people in the world, billions of dollars, all going to create the best possible super intelligence we can. Unfortunately, while we know how to make those systems much more capable, we don't know how to make them safe, how to

    37:28

    make sure they don't do something we will regret. And that's the state of the art right now.

    When we look at just prediction markets, how soon will we get to advance AI? The timelines are very short, couple years, two three years according to

    37:45

    prediction markets, according to CEOs of top labs. And at the same time, we don't know how to make sure that the systems are aligned with our preferences.

    So we are creating this alien

    38:00

    intelligence. If aliens were coming to earth and you had three years to prepare, you would be panicking right now.

    But most people don't don't even realize this is happening. So some of the counterarguments might be

    38:17

    well these are very very smart people. These are very big companies with lots of money.

    They have a obligation and a moral obligation but also just a legal obligation to make sure they do no harm. So I'm sure it'll be fine.

    The only obligation they have is to make money for the investors. That's the legal

    38:33

    obligation they have. They have no moral or ethical obligations.

    Also, according to them, they don't know how to do it yet. The state of the art answers are we figure it out then we get there or AI will help us control more advanced AI.

    That's insane. In terms of probability,

    38:51

    what do you think is the probability that something goes catastrophically wrong? So, nobody can tell you for sure what's going to happen, but if you're not in charge, you're not controlling it, you will not get outcomes you want.

    The space of possibilities is almost

    39:06

    infinite. The space of outcomes we will like is tiny.

    And who are you and how long have you been working on this? I'm a computer scientist by training.

    Have a PhD in computer science and engineering.

    39:22

    I probably started working AI safety mildly defined as control of bots at the time 15 years ago. 15 years ago.

    So you've been working on AI safety before it was cool? Before the term existed, I co the term AI safety.

    39:39

    So you're the founder of the term AI safety? The term?

    Yes. Not the field.

    There are other people who did brilliant work before I got there. Why were you thinking about this 15 years ago?

    Because most people have only been talking about the time AI safety for the last two or three years. It started very mildly just as a security project.

    I was

    39:57

    looking at poker bots and I realized that the bots are getting better and better and if you just project this forward enough they're going to get better than us. Smar more capable.

    And it happened they are playing poker way

    40:12

    better than average players but more generally it will happen with all other domains. All the other cyber resources I wanted to make sure AI is a technology which is beneficial for everyone.

    So I started work on making AI safe.

    40:29

    Was there a particular moment in your career where you thought, "Oh my god." First five years at least I was working and solving this problem. I was convinced we can make this happen.

    We can make safe AI and that was the goal. But the more I looked at it, the more I

    40:45

    realized every single component of that equation is not something we can actually do. And the more you zoom in, it's like a fractal.

    You go in and you find 10 more problems and then a more problems. And all of them are not just difficult, they're impossible to solve.

    41:03

    There is no seminal work in this field where like we sold this. We don't have to worry about this.

    There are patches. There are little fixes we put in place and quickly people find ways to work around them.

    They drill break whatever safety mechanisms we have. So while

    41:20

    progress in AI capabilities is exponential or maybe even hyper exponential progress in AI safety is linear or constant. The gap is increasing the gap between how capable the systems are and how well

    41:37

    we can control them predict what they going to do explain their decision making. I think this is quite an important point because you said they were basically patching over the issues that we find.

    So we're developing this core intelligence and then to stop it doing things

    41:53

    or to stop it showing some of its unpredictability or its threats, the companies that are developing this AI are programming in code over the top to say, "OK, don't swear, don't say that read word, don't do that bad thing." Exactly. And you can look at other examples of that.

    So HR manuals, right?

    42:11

    We have those humans. The general intelligences but you want them to behave in a company so they have a policy.

    No sexual harassment, no this no that. But if you're smart enough, you always find a work around.

    So you just pushing behavior into a different not

    42:26

    yet restricted subdomain. We we should probably define some terms here.

    So there's narrow intelligence which can play ch whatever. artificial general intelligence which can operate across domains and then superintelligence which is smarter than all humans in all domains and where are

    42:43

    we so that's a very fuzzy boundary right we definitely have many excellent narrow systems no question about it and they are super intelligent in that narrow domain so uh protein folding is a problem which was solved using narrow AI

    42:59

    and it's superior to all humans in that domain in terms of AGI again I said if We showed what we have today to a scientist from 20 years ago. They would be convinced we have full blown Hi.

    We have systems which can learn they can perform in hundreds of the domains and

    43:16

    they better than human in many of them. So you can argue we have a weak version of HI.

    Now we don't have super intelligence yet. We still have brilliant humans who are completely dominating AI especially in science and engineering.

    43:32

    But that gap is closing so fast. You can see especially in the domain of mathematics 3 years ago large language models couldn't do basic algebra multiplying threeit numbers was a challenge.

    Now they helping with mathematical proofs.

    43:49

    They winning mathematics Olympiads competitions. They are working and solving millennial problems, hardest problems in mathematics.

    So in three years we closed the gap from subhuman performance to better than most mathematicians in the world. And we see

    44:05

    the same process happening in science and in engineering. You have made a series of predictions and they correspond to a variety of different dates and I have those dates in front of me here.

    What is your prediction for the year

    44:20

    2027? We're probably looking at AGI as predicted by prediction markets and tops of the lab.

    So would have artificial general intelligence by 2027 and how would that make the world different to

    44:36

    how it is now? So if you have this concept of a dropin employee, you have free labor physical and cognitive trillions of dollars of it.

    It makes no sense to hire humans for most jobs. If I can just get, you know, a $0 subscription or a free model to do

    44:54

    what an employee does, first anything on a computer will be automated and next I think humanoid robus are maybe five years behind. So in five years all the physical labor can also be automated.

    So we're looking at a world where we have levels of unemployment we never

    45:10

    seen before. Not talking about 10% unemployment which is scary but 99%.

    All you have left is jobs where for whatever reason you prefer another human would do it for you. But anything else can be fully

    45:26

    automated. It doesn't mean it will be automated in practice.

    A lot of times technology exists but it's not deployed. Video phones were invented in the 70s.

    Nobody had them until iPhones came around. So we may have a lot more time with jobs

    45:43

    and with world which looks like this but capability to replace most humans and most occupations will come very quickly. H.

    Ok. So, let's try and drill down into that and stress test it.

    So,

    46:01

    a podcaster like me, would you need a podcaster like me? So, let's look at what you do.

    You prepare, you ask questions, you ask followup questions, and you look good on camera.

    46:17

    Thank you so much. Let's see what we can do.

    large language model today can easily read everything I wrote and have very solid understanding I assume you haven't read every single one of my books that thing would do it can train on every podcast you ever did

    46:32

    so it knows exactly your style the types of questions you ask it can also find correspondence between what worked really well like this type of question really increased views this type of topic was very promising so you can optim I think than you can because you

    46:49

    don't have set. Of course, visual simulation is at this point.

    So, can you make a video within seconds of me sat here and so we can generate videos of you interviewing anyone on any topic very efficiently and you just have to

    47:06

    get likeness, approval, whatever. Are there many jobs that you think would remain in a world of AGI?

    If you're saying AGI is potentially going to be here, whether it's deployed or not by 2027, what kind and then okay, so let's take out of this any physical labor jobs

    47:22

    for a second. Are there any jobs that you think a human would be able to do better in a world of AGI still?

    So that's the question I often ask people in the world with AGI and I think almost immediately we get super intelligence as a side effect. So the question is in a

    47:39

    world of super intelligence which is defined as better than all humans in all domains what can you contribute? And so you know better than anyone what it's like to be you.

    You know what ice cream tastes to you. Can you get paid

    47:54

    for that knowledge? Is someone interested in that?

    Maybe not. Not a big market.

    There are jobs where you want a human. Maybe you're rich and you want a human accountant for whatever historic reasons.

    Old people like traditional ways of

    48:12

    doing things. Warren Buffet would not switch to AI.

    He would use his human accountant but it's a tiny subset of a market. Today we have products which are manmade in US as opposed to mass produced in China and some people pay more to have

    48:28

    those but it's a small subset. It's a almost a fish.

    There is no practical reason for it. And I think anything you can do on a computer could be automated using that technology.

    You must hear a lot of robuttles to when

    48:45

    this when you say it because people experience a huge amount of mental discomfort when they hear that their job, their career, the thing they got a degree in, the thing they invested $100,000 into is going to be taken away from them. So their natural reaction some for some people is that cognitive dissonance that no you're wrong, AI

    49:02

    can't be creative. It's not this, it's not that.

    It'll never be interested in my job. I'll be fine because you hear these arguments all the time, right?

    It's really fine. I ask people and I ask people in different occupations.

    I'll ask my Uber driver, "Are you worried

    49:17

    about self driving cars?" And they go, "No, no one can do what I do. I know the streets of New York.

    I can navigate like no AI. I'm safe." And it's true for any job.

    Professors are saying this to me. Oh, nobody can lecture like I do.

    Like this is so special. But you understand

    49:34

    it's ridiculous. We already have self driving cars replacing drivers.

    That is not even a question if it's possible. It's like how soon before you fire.

    Yeah, I mean I've just been in LA yesterday and uh my car drives itself.

    49:49

    So I get in the car, I set of putting where I want to go and then I don't touch the steering wheel all the brake pedals and it takes me from A to B. Even if it's an hourl drive without any intervention at all.

    I actually still park it. But other than that, I'm not I'm not driving the car at all.

    50:05

    Obviously in LA we also have WMO now which means you order it on your phone and it shows up with no driver in it and takes you to where you want to go. Oh yeah.

    So it's quite clear to see how that is potentially a matter of time for those people because we do have some of those people listening to this conversation

    50:21

    right now that their occupation is driving to offer them a I think driving is the biggest occupation in the world if I'm correct. I'm pretty sure it is the biggest occupation in the world.

    one of the top ones. Yeah.

    What would you say to those people? What

    50:37

    should they be doing with their lives? What should they should they be retraining in something or what time frame?

    So that's the paradigm shift here. Before we always said this job is going to be automated retrain to do this other job.

    But if I'm telling you that all jobs will be automated then there is no plan B. You cannot retrain.

    50:57

    Look at computer science. Two years ago, we told people learn to code.

    You are an artist, you cannot make money. Learn to code.

    Then we realized oh AI kind of knows how to code and getting better. Become a prompt engineer.

    51:14

    You can engineer prompts for AI. It's going to be a great job get a year degree in it.

    But then we're like AI is way better at designing proms for AI than any human. So that's gone.

    So I can't really tell you right now the hardest thing is design AI agents for

    51:29

    practical applications. I guarantee you in a year or two it's going to be gone just as well.

    So I don't think there is a this occupation needs to learn to do this instead. I think it's more like we as a humanity then we all lose our jobs.

    What

    51:45

    do we do? What do we do financially?

    Who's paying for us? And what do we do in terms of meaning?

    What do I do with my extra 60 hours a week? You've thought around this corner, haven't you?

    A

    52:00

    little bit. What is around that corner in your view?

    So, the economic part seems easy if you create a lot of free labor, you have a lot of free wealth, abundance, things which are right now very affordable become dirt cheap.

    52:16

    for basic needs. Some people say you can provide beyond basic needs.

    You can provide very good existence for everyone. The hard problem is what do you do with all that free time?

    For a lot of people their jobs are what gives them meaning in their life. So they

    52:33

    would be kind of lost. We see it with people who uh retire or do early retirement.

    And for so many people who hate their jobs, they'll be very happy not working. But now you have people who are chilling all day.

    What happens to society? How does that impact crime

    52:50

    rate, pregnancy rate, all sorts of issues? Nobody thinks about governments don't have programs prepared to deal with 99% unemployment.

    What do you think that world looks like?

    53:05

    Again I think very important part to understand here is the unpredictability of we cannot predict what smarter than system will do and the point when we get to that is often called singularity by

    53:22

    analogy with physical singularity you cannot see beyond the event horizon I can tell you what I think might happen but that's my prediction it is not what actually is going to happen because I just don't have cognitive

    53:37

    agent impacting then you read science fiction there is never super intelligence in it actually doing anything because nobody can write believable science fiction at that level they band AI like June because this way

    53:53

    you can avoid writing about it or it's like Star Wars you have this really dumb bots but not nothing super intelligent ever cuuse by definition you cannot predict at that Because by definition of it being super intelligent, it will make its own mind.

    54:09

    By definition, if it was something you could predict, you would be operating at the same level of intelligence, violating our assumption that it is smarter than you. If I'm playing chess with super intelligence and I can predict every move, I'm playing at that level.

    It's kind of like my French bulldog trying to predict exactly what

    54:26

    I'm thinking and what I'm going to do. That's a good cognitive gap.

    And it's not just he can predict you going to work, you coming back, but he cannot understand why you're doing a podcast. That is something completely outside of his model of the world.

    Yeah, he doesn't even know that I go to

    54:41

    work. He just sees that I leave the house and doesn't know where I go.

    By forward for him. What's the most persuasive argument against your own perspective here?

    That we will not have unemployment due to advanced technology. that there won't be this French bulldog

    54:59

    human gap in understanding and I guess like power in control. So some people think that we can enhance human minds either through combination with hardware.

    So something like

    55:15

    neurolink or through genetic reengineering to where we make smarter humans. Yeah.

    It may give us a little more intelligence. I don't think we are still competitive in biological form with silicon form.

    Silicon substrate is much

    55:31

    more capable for intelligence is faster. It's more resilient, more energy efficient in many ways, which is what computers are made out of the brain.

    Yeah. So I don't think we can keep up just with improving our biology.

    Some people think maybe and this is very

    55:48

    speculative we can upload our minds in computers. So scan your brain, can comb of your brain and have a simulation running on a computer and you can speed it up, give it more capabilities.

    But to me that feels like you no longer exist.

    56:03

    We just created software by different means and now you have AI based on biology and AI based on some other forms of training. You can have evolutionary algorithms.

    You can have many paths to reach AGI but at the end none of them are humans. I have another date here

    56:22

    which is 2030. What's your prediction for 2030?

    What will the world look like? So we probably will have humanoid robots with enough flexibility dexterity to compete with humans in all including

    56:40

    plumers. We can make artificial plumbers not the plumbers where that was that felt like the last bastion of human employment.

    So 2030 years from now humanoid robots so many of the companies the leading companies including Tesla

    56:55

    are developing humanoid robots at light speed and they're getting increasingly more effective and these humanoid robots will be able to move through physical space for you know make an omelette do anything humans can do but obviously have be connected to AI as well so they

    57:14

    can think talk right they're controlled by AI they always connected to the network So they are already dominating in many ways. Our world will look remarkably different when humanoid robots are functional and effective because that's really when you

    57:31

    know I something c like the combination of intelligence and physical ability is really really doesn't leave much does it for us um human beings? Not much.

    So today if you

    57:48

    have intelligence through internet you can hire humans to do your bidding for you. You can pay them in bitcoin so you can have bodies just not directly controlling them.

    So it's not a huge game changer to add direct control of physical bodies. Intelligence is where

    58:03

    it's at. The important component is definitely higher ability to optimize, to solve problems, to find patterns people cannot see.

    And then by 2045 I guess the world looks even more um

    58:20

    which is 20 years from now. So if it's still around if it's still around predicts that that's the year for a singularity that's the year where progress becomes so fast.

    So this AI doing science and engineering work makes

    58:36

    improvement so quickly we cannot keep up anymore. That's the definition of singularity point beyond which we cannot see understand predict see understand predict the intelligence itself or what is happening in a world the technology is being developed.

    So right now if I

    58:52

    have an iPhone I can look forward to a new one coming out next year and I'll understand it has slightly better camera. Imagine now this process of researching and developing this phone is automated.

    It happens every six months, every three months, every month, week,

    59:08

    day, hour, minutes, second. You cannot keep up with 30 iterations of iPhone in one day.

    You don't understand what capabilities it has, what proper controls are. It just escapes you.

    Right now, it's hard for any

    59:24

    researcher in AI to keep up with a state of the art. While I was doing this interview with you, a new model came out and I no longer know what the state of the art is.

    Every day as a percentage of total knowledge, I get dumber. I may still know more because I keep reading,

    59:39

    but as a percentage of overall knowledge, we all getting dumber. And then you take it to extreme values, you have zero knowledge, zero understanding of the world around you.

    Some of the arguments against this eventuality are that when you look at

    59:57

    other technologies like the industrial revolution, people just found new ways to to work and new careers that we could never have imagined at the time were created. How do you respond to that in a world of superintelligence?

    00:12

    It's a paradigm shift. We always had tools, new tools which allowed some job to be done more efficiently.

    So instead of having 10 workers, you could have two workers and eight workers had to find a new job. And there was another job.

    Now you can supervise those workers or do

    00:27

    something. If you creating a meta invention, you're inventing intelligence, you inventing a worker, an agent then you can apply that agent to the new job.

    There is not a job which cannot be automated that never happened before.

    00:43

    All the inventions we previously had were kind of a tool for doing something. So we invented fire game changer but that's it.

    It stops with fire we invent a wheel. Same idea, huge implications but itself is not an inventor.

    Here

    01:01

    we're inventing a replacement for human inventor capable of doing new inventions. It's the last invention we ever have to make.

    At that point, it takes over. And the process of doing science, research, even ethics research,

    01:17

    morals, all that is automated at that point. Do you sleep well at night?

    Really? Well, even though you you've spent the last what 15 20 years of your life working on AI safety and it's suddenly among us in a in a way that I don't

    01:34

    think anyone could have predicted 5 years ago. When I say among us, I really mean that the amount of funding and talent that is now focused on reaching superintelligence faster has made it feel more inevitable and more soon than any of us could have possibly

    01:49

    imagined. Humans have this built in bias about not thinking about really bad outcomes and things we cannot prevent.

    So all of us are dying. Your kids are dying, your parents are dying, everyone's dying.

    But you still sleep well, you still go on with your

    02:05

    day. Even 95olds are still doing games and playing golf and whatn we have this ability to not think about the worst outcomes especially if we cannot actually modify the outcome.

    So that's the same infrastructure being used for

    02:22

    this. Yeah, there is humanity level death like event.

    We're happening to be close to it probably but unless I can do something about it I I can just keep enjoying my life. In fact, maybe knowing

    02:39

    that you have limited amount of time left gives you more reason to have a better life. You cannot waste any.

    And that's the survival trait of evolution, I guess, because those of my ancestors that spent all their time worrying wouldn't have spent enough time having babies and hunting to survive.

    02:55

    Suicidalation. People who really start thinking about how horrible the world is usually escape pretty soon.

    One of the you co-authored this paper um analyzing the key arguments people make

    03:11

    against the importance of AI safety and one of the arguments in there is that there's other things that are of bigger importance right now. It might be world wars, it could be nuclear containment, it could be other things.

    There's other things that the governments and podcasters like me should be talking about that are more important. What's

    03:28

    your rebutle to that argument? So superintelligence is a matter solution.

    If we get super intelligence right, it will help us with climate change. It will help us with wars.

    It can solve all the other exists. If we don't get it right, it dominates.

    03:46

    If climate change will take years to boil us alive and super intelligence kills everyone at five, I don't have to worry about climate change. So either way, either it solves it for me or it's not an issue.

    Do you think it's the most important thing to be working? Without

    04:03

    question, there is nothing more important than getting this right. And I know everyone says that you take any class, you take English professor's class and he tells you this is the most important class you'll ever take.

    But uh

    04:18

    you can see the metal level differences with this one. Another argument in that paper is that we all be in control and that the danger is not AI.

    Um, this particular argument asserts that AI is just a tool. Humans are the real actors that present danger.

    And we can always

    04:35

    mtain control by simply turning it off. Can't we just pull the plug out?

    I see that every time we have a conversation on the share about AI, someone says, "Can't we just unplug it?" Yeah, I get those comments on every podcast I make and I always want to like get in touch with a guy and say, "This is brilliant. I never thought of it.

    We're going to

    04:51

    write a paper together and get a Nobel price for it. This is like let's do it because it's so silly.

    Like can you turn off a virus? You have a computer virus you don't like it.

    Turn it off. How about Bitcoin?

    Turn off Bitcoin network. Go ahead.

    I'll wait. This is silly.

    05:06

    Those are distributed systems. You cannot turn them off.

    And on top of it, they smarter than you. They made multiple backups.

    They predicted what you're going to do. They will turn you off before you can turn them off.

    The idea that we will be in control applies only to preintelligence levels.

    05:24

    Basically what we have today. Today humans with AI tools are dangerous.

    They can be hackers, malevolent actors. Absolutely.

    But the moment superintelligence becomes smarter, dominates, they no longer the important part of that equation. It is the higher intelligence I'm concerned about.

    add

    05:43

    additional malevad but still doesn't control it. It is tempting to follow your the next argument that I saw in that paper which basically says listen this is inevitable so there's no

    05:58

    point fighting against it because there's really no hope here. that we should probably give up even trying and be faithful that it will work itself out because everything you've said sounds really inevitable and if with with China working on it, I'm sure Putin's got some secret division.

    I'm sure Iran are doing

    06:14

    some bits and pieces. Every European country is trying to get ahead of AI.

    The United States is leading the way. So it's it's inevitable.

    So we probably should just have faith and pray. Praying is always good but incentives matter.

    06:29

    If you are looking at what drives this people, so yes, money is important. So there is a lot of money in space and so everyone's trying to be there and develop this technology.

    But if they truly understand the argument, they understand that you will be dead. No

    06:46

    amount of money will be useful to you. Then incentive switch.

    They would want to not be dead. A lot of them are young people, rich people.

    They have their whole lives ahead of them. I think they would be better not building advanced super intelligence, concentrating on

    07:02

    narrow AI tools for solving specific problems. Ok, my company cures breast cancer that's all.

    We make billions of dollars. Everyone's happy, everyone benefits.

    It's a win. We are still in control today.

    It's not over until it's over. We

    07:18

    can decide not to build general super intelligences. I mean the United States might be able to conjure up enough enthusiasm for that.

    But if the United States doesn't build general superintelligences then China are going to have the big advantage. Right.

    So right now at those

    07:36

    levels whoever has more advanced AI has more advanced military. No question we see it with existing conflicts.

    But the moment you switch to superintelligence and control superintelligence it doesn't matter who builds it us or them. And if they understand this argument they also

    07:51

    would not build it. It's a mutually assured destruction on both ends.

    Is this technology different than say nuclear weapons which require a huge amount of investment and you have to like enrich the uranium and you need billions of dollars potentially to even

    08:09

    build a nuclear weapon. But it feels like this technology is much cheaper to get to super intelligence potentially or at least it will become cheaper.

    I wonder if it's possible that some guy some startup is going to be able to build superintelligence in you know a couple

    08:26

    of years without the need of you know billions of dollars of compute or or electricity power. That's a great point.

    So every year it becomes cheaper and cheaper to train sufficiently large model. If today it would take a trillion dollars to build super intelligence, next year it could be 100 billion and so

    08:42

    on. At some point a guy in a laptop could do it.

    But you don't want to wait four years for make it affordable. So that's why so much money is pouring in.

    Somebody wants to get there this year and lucky and all the winnings light level award. So in

    08:59

    that regard they both very expensive projects like Manhattan level projects which is the nucle b project the difference between the two technologies is that nuclear weapons are still tools some dictator some country someone has

    09:15

    to decide to use them deploy them whereas super intelligence is not not a tool it's an agent it makes its own decisions and no one is controlling it cannot take out this dictator and now super intelligence safe. So that's a fundamental difference to me.

    09:33

    But if you're saying that it is going to get incrementally cheaper like I think it's more slow, isn't it? That the technology gets cheaper then there is a future where some guy in his laptop is going to be able to create super intelligence without oversight or regulation or employees etc.

    Yeah,

    09:48

    that's why a lot of people suggesting we need to build something like surveillance planet where you are monitoring who's doing what and you're trying to prevent people from doing it. Do I think it's feasible?

    No, at some

    10:04

    point it becomes so affordable and so trivial that it just will happen. But at this point, we're trying to get more time.

    We don't want it to happen in five years. We want it to happen in 50 years.

    I mean, that's not very hopeful. So, depends on how old you are.

    Depends on

    10:21

    how old you are. I mean, if you're saying that you believe in the future people will be able to make super intelligence without the resources that are required today, then it is just a matter of time.

    Yeah, but so will be true for many other

    10:36

    technologies. We are getting much better and synthetic biology where today someone with a bachelor's degree in biology can probably create a new virus.

    this will also become cheaper other technologies like that so we are approaching a point where it's very

    10:52

    difficult to make sure no technological breakthrough is the last one. in many pattern of making easier in terms of resources in terms of intelligence to destroy the world if you look at I don't

    11:09

    know 500 years ago the worst dictator with all the resources could kill couple million people he could destroy the world now we know nuclear weapons we can blow up the whole planet multiple times over synthetic biology we saw with COVID you can very easily a combination virus

    11:28

    which impacts billions of people and all those things becoming easier to do. In the near term you talk about extinction being a real risk, human extinction being a real risk.

    Of all the pathways to human extinction that you think are most likely, what is the

    11:44

    leading pathway? Because I know you talk about there being some issue predeployment of these AI tools like you know someone makes a mistake um when they're designing a model or other issues post deployment when I say post deployment I mean once a chatbutty or

    12:00

    something an agent released into the world and someone hacking into it and changing it and reprogram reprogramming it to be malicious have all these potential paths to human extinction which one do you think is the highest probability? So I can only talk about

    12:16

    the ones I can predict myself. So I can predict even before we get to superintelligence someone will create a very advanced biological tool create a novel virus and that virus gets everyone or most everyone.

    I can envision it. I can understand the pathway.

    I can say

    12:32

    that. So just to zoom in on that then that would be using an AI to make a virus and then releasing it.

    And would that be intentional or there is a lot of psychopaths, a lot of terrorists, a lot of doomsday cults we seen historically

    12:48

    again they try to kill as many people as they can. They usually fail, they kill hundreds of thousands.

    But if they get technology to kill millions of billions, they would do that gladly. The point I'm trying to emphasize is that it doesn't matter what I can come

    13:04

    up with. I not malevolent actor you trying to defeat here.

    It's the super intelligence which can come up with completely novel ways of doing it. Again, you brought up example of your dog.

    Your dog cannot understand all the ways you can take it out.

    13:21

    It can maybe think you'll bite it to death or something. But that's all.

    Whereas you have infinite supply of resources. So if I asked your dog exactly how you going to take it out, it would not give you a meaningful answer.

    It can talk

    13:37

    about biting. And this is what we know.

    We know viruses. We experienced viruses.

    We can talk about them. But what an AI system capable of doing novel physics research can come up with is beyond me.

    One of the things that I

    13:53

    think most people don't understand is how little we understand about how these AI are actually working. Cuz one would assume you know with computers we kind of understand how a computer works.

    We we know that it's doing this and then this and it's running on code but from reading your work you describe it as

    14:10

    being a black box. We act.

    So in the context of something like Chat BT or an AI we know, you're telling me that the people that have built that tool don't actually know what's going on inside that exactly right. So even people making those systems have to run experiments on

    14:27

    their product to learn what it's capable of. So they train it by giving it all of data.

    Let's say all of internet text. They run it on a lot of computers to learn patterns in that text.

    And then we start experimenting with that model. Oh,

    14:43

    do you speak French? Oh, can you do mathematics?

    Oh, are you lying to me now? And so maybe it takes a year to train it and then six months to get some fundamentals about what it's capable of, some safety overhead.

    But we still

    14:59

    discover new capabilities and old models. If you ask a question in a different way, it becomes smarter.

    So it's no longer engineering how it was the first 50 years where someone was a engineer

    15:14

    programming expert system AI to do specific things. It's a science we are creating this artifact growing it.

    It's like a alien plant and then we study to see what it's doing and just like with plants, we don't have 100% accurate

    15:30

    knowledge of biology. We don't have full knowledge here.

    We kind of know some patterns. We know, ok, if we add more compute, it gets smarter most of the time.

    But nobody can tell you precisely what the outcome is going to be given a set of inputs.

    15:46

    I've watched so many entrepreneurs treat sales like a performance problem when it's often down to visibility because when you can't see what's happening in your pipeline, what stage each conversation is at, what's moving, you can't improve anything. Bueno, interesante charla, la verdad es que

    16:03

    interesante. Creo que no lleva, creo que es la mitad de la charla y llevo casi, bueno, buah, tres folios aquí con anotaciones, eh, viendo qué es lo que pasa.

    Entonces, eh, me parece que es

    16:19

    uf, hay muchísimo de lo que hablar, ¿no? Mañana, de todas maneras responderé una forma más concreta, técnica, pero bueno, ahora veremos un poco la opinión sobre el vídeo.

    A ver que de todas formas eso es un vídeo realmente

    16:36

    muy muy potente. Realmente muy muy potente.

    Sí, me parece que es muy interesante verlo. Yo no lo había visto.

    Si lo habéis visto ya, pues perfecto. Para los que no los habéis visto, pues lo veis conmigo.

    Pues genial.

    16:54

    And this was it um was it Ilia Jack Ilia? Yeah.

    Ilia left and he started a new company called Super Intelligent Safety because AI safety wasn't challenging enough. He decided to just jump right to the hard problem.

    17:10

    as an onlooker when you see that people are leaving open AI to to start super intelligent safety companies what was your read on that situation? So a lot of people who worked with Sam said

    17:26

    that maybe he's not the most direct person in terms of being honest with them and they had concerns about his views and safety. That's part of it.

    So they wanted more control, they wanted more concentration and safety. But also it seems that

    17:42

    anyone who leaves that company and starts a new one gets a billion dollar valuation just for having it started. You don't have a product, you don't have customers, but if you want to make many billions of dollars, just do that.

    So, it seems like a very rational thing to do for anyone who can. So, I'm not

    18:00

    surprised that there is a lot of attrition. Meeting him in person, he's super nice, very smart, absolutely perfect public interface.

    You see him testify in a Senate, he says the right

    18:15

    thing to the senators. You see him talk to the investors, they get the right message.

    But if you look at what people who know him personally are saying, it's probably not the right person to be controlling a project of that impact.

    18:32

    Why? He puts safety second.

    Second two winning this race to super intelligence being the guy who created God and controlling light con of the universe he's worse

    18:49

    you suspect that's what he's driven by is by the the legacy of being an impactful person that did a remarkable thing versus the consequence that that might have on for society because it's interesting that he's his other startup is world coin which is basically a

    19:06

    platform to create universal basic income. I a platform to give us income in a world where people don't have jobs anymore.

    So one hand you're creating an AI company, the other hand you're creating a company that is preparing for people not to have employment. It also has our other properties.

    It

    19:24

    keeps track of everyone's biometrics. It uh keeps you in charge of a world's economy, world's wealth.

    they retaining a large portion of world coins. So I I think it's kind of very reasonable part

    19:40

    to integrate with world dominance. If you have a super intelligence system and you control money, you're doing well.

    Why would someone want weld dominance?

    19:55

    People have different levels of ambition. Then you very young person with billions of dollars fame you start looking for more ambitious projects.

    Some people want to go to Mars want to control light of the universe. What did you say Lcoin of the universe?

    20:11

    Light cone. So every part of the universe light can reach from this point meaning anything accessible you want to grab and bring into your control.

    You think Sam wants to control every part of the universe? I I suspect he might.

    Yes.

    20:28

    It doesn't mean he doesn't want a side effect of it being a very beneficial technology which makes all the humans happy. Happy humans are good for control.

    If you had to guess what the world looks like in

    20:46

    200100, if you had to guess, it's either free of human existence or it's completely not comprehensible to someone like us. It's one of those extremes.

    So there's

    21:02

    either no humans. It's basically the world is destroyed or it's so different that I cannot envision those predictions.

    What can be done to turn this ship to a more certain positive outcome at this

    21:18

    point? Is is there still things that we can do or is it too late?

    So I believe in personal self-interest. If people realize that doing this thing is really bad for them personally, they will not do it.

    So our job is to convince everyone with any power in the space

    21:34

    creating this technology working for those companies they are doing something very bad for them. I just forget 8 billion people you experimenting on with no permission, no consent, you will not be happy with the outcome if we can get

    21:50

    everyone to understand that's a default. And it's not just me saying it.

    You had Jeff Hinton Nobel Prize winner, founder of a whole machine learning space. He says the same thing dozens of hours top scholars.

    We had a statement about dangerous of AI signed

    22:06

    by thousands of scholars imputer scientists. This is basically what we think right now and we need to make it a universal.

    No one should disagree with this and then we may actually make good decisions about what technology to build. It doesn't guarantee longterm

    22:23

    safety for humanity, but it means we're not trying to get there as soon as possible to the worst possible outcome. And do are you hopeful that that's even possible?

    I want to try. We have no choice but to try.

    And what would need to happen and

    22:39

    who would need to act is it government legislation? Is it unfortunately, I don't think making it illegal is sufficient.

    There are different jurisdictions. There is you know loop holes and what are you going to do if somebody does it?

    You going to find them for destroying humanity like very steep

    22:55

    finds for it? Like what are you going to do?

    It's not enforceable. If they do create it, now the superintelligence is in charge.

    So the judicial system we have is not impactful and all the punishments we have are designed for punishing humans. Prison's capital punishment doesn't apply to AI.

    You know

    23:12

    the problem I have is when I have these conversations. I never feel like I walk away with I hope that something's going to go well.

    And what I mean by that is I never feel like I walk away with clear some kind of clear set of actions that can

    23:28

    cause correct what might happen here. So what what should I do?

    What should the person start at home listening to this do? You you talk to a lot of people who are building this technology.

    Ask them precisely to explain some of

    23:43

    those things claim to be impossible how they solved it or going to solve it before they get to where they going. You know, I don't think Sam wants to talk to me.

    I don't know. He seems to go on a lot of podcasts.

    Maybe he does. He wants to go online.

    23:58

    I I wonder why that is. I wonder why that is.

    I'd love to speak to him, but I I don't think he wants to I don't think he wants me to uh interview him. have an open challenge.

    Maybe money is not the incentive, but whatever attracts people

    24:15

    like that, whoever can convince you that it's possible to control and make safe super intelligence gets the price, they come on your show and prove their case. Anyone, if no one claims the price or even accepts the challenge after a few years, maybe we don't have anyone with

    24:31

    solutions. We have companies valued again billions and billions of dollars working on safe superintelligence.

    We haven't seen their output yet. Yeah, I' like to speak to as well buuse

    24:46

    I know he's he's working on safe super intelligence. So notice apparent to if you look at history of AI safety organizations or departments within companies they usually start well very ambitious and then they fail and disappear.

    So Open AI

    25:05

    had super intelligence alignment team. The day they announced it, I think they said they're going to solve it in four years.

    Like half a year later they canceled the team. And there is dozens of similar examples.

    The eating a perfect safety for super intelligence,

    25:21

    perpetual safety as it keeps improving, modifying, interacting with people, you're never going to get there. It's impossible.

    There is a big difference between difficult problems in computer science and complete problems and impossible problems. And I think control indefinite

    25:38

    control of super intelligence is such a problem. So what's the point trying then if it's impossible?

    Well, I'm trying to prove that it is specifically that once we establish something is impossible fewer people will waste their time claiming they can do it and find looking for money. So many people going, "Give

    25:54

    me a billion dollars in two years and I'll solve it for you." Well, I don't think you will. But people aren't going to stop striving towards it.

    So if there's no attempts to make it safe and there's more people increasingly striving towards it, then it's inevitable. But it changes what we

    26:10

    do. If we know that it's impossible to make it right, to make it safe, then this direct path of just build it as soon as you can becomes suicide mission.

    Hopefully fewer people will pursue that. They may go in other directions.

    Like again I'm a scientist, I'm an engineer.

    26:26

    I love AI. I love technology.

    I use it all the time. Build useful tools.

    Stop building agents. Build narrow super intelligence.

    Not a general one. I'm not saying you shouldn't make billions of dollars.

    I love billions of dollars. But uh don't kill everyone yourself

    26:43

    included. They don't think they're going to, though.

    Then tell us why. I hear things about intuition.

    I hear things about solve it later. Tell me specifically in scientific terms.

    Publish a peer

    26:59

    reviewed paper explaining how you're going to control super intelligence. Yeah, strange.

    It's strange to It's strange to even bother if there was even a 1% chance of human extinction. It's strange to do something.

    Like if there was a 1% someone told me there was a 1% chance that if I got in a car I might

    27:16

    not I might not be alive. I would not get in the car.

    If you told me there was a 1% chance that if I drank whatever liquid is in this cup right now, I might die. I would not drink the liquid even if there was a billion if I survived.

    So the 99% chance I get a

    27:32

    billion the 1% is I die. I wouldn't drink it.

    I wouldn't take the chance. It's worse than that.

    Not just you die. Everyone dies.

    Yeah. Yeah.

    Now would we let you drink it at anys? That's for us to decide.

    You don't get to make that choice for us. To get consent from human

    27:49

    subjects. You need them to comprehend what they are consenting to.

    If those systems are unexplainable, unpredictable how can they consent? They don't know what they are consenting to.

    So it's impossible to get consent by definition. So this experiment can never

    28:04

    be run ethically. By definition they are doing experimentation and human subjects.

    Do you think people should be protesting? There are people protesting there is stop AI there is AI they block offices of open AI they do it weekly

    28:20

    monthly quite a few actions and recruiting new people you think more people should be protesting do you think that's an effective solution if you can get it to a large enough scale to where majority of population is participat it would be impactful I don't know if they

    28:35

    can scale from current numbers to that but I support everyone trying everything peacefully and legally And for the for the person listening at home, what should they what should they be doing? What what what they don't want to feel powerless.

    None of us want to feel powerless.

    28:51

    So it depends on what scale we're asking about time scale. Are we saying like this year your kid goes to college what major to pick?

    Should they go to college at all? Yeah.

    Should you switch jobs? Should you go into certain industries?

    Those questions we can answer. We can talk about immediate future.

    What should

    29:07

    you do in five years with this being created? For an average person, not much.

    Just like they can't influence World War I, nuclear Holocaust, anything like that. It's not something anyone's going to ask about.

    Today if you want to

    29:23

    be a part of this movement yeah join AI join stai those organizations currently trying to build up momentum to bring democratic powers to influence those individuals. So in the near term not a huge amount I

    29:41

    was wondering if there are any interesting strategies in the near term like should I be thinking differently about my family about I mean you've got kids right? got three kids that I know about.

    Yeah, three kids. How are you thinking about parenting in this world that you see around the corner?

    How are

    29:57

    you thinking about what to say to them? The advice to give them what they should be learning.

    So, there is general advice uh outside of this domain that you should leave your every day as if it's your last. It's a good advice no matter what.

    If you have three years left or 30 years left, you lived your best life.

    30:13

    So, try to not do things you hate for too long. do interesting things, do impactful things.

    If you can do all that while helping people do that, simulation theory is a interesting sort of adjacent

    30:30

    subject here because as computers begin to accelerate and get more intelligent and we're able to, you know, do things with AI that we could never have imagined in terms of like can imagine the world that we could create with virtual reality. I think it was Google that recently released what

    30:46

    was it called? um like the AI worlds some you take a picture and it generates the whole world.

    Yeah. And you can move through the world.

    I'll put it on the screen for people to see. But Google have released this technology which allows you, I think with a simple prompt actually to

    31:01

    make a threedimensional world that you can then navigate through. And in that world, it has memory.

    So in the world if you paint on a wall and turn away, you look back the wall. Persistent.

    Yeah, it's persistent. And when I saw that, I go Jesus is this is like the foothills

    31:17

    of being able to create a simulation that's indistingishable from everything I see here. Right?

    That's why I think we are in one. That's exactly the reason.

    AI is getting to the level of creating human agents, human level agents, and virtual reality is getting to the level

    31:33

    of being indistinguishable from ours. So you think this is a simulation?

    I'm pretty sure we are in a simulation. For someone that isn't familiar with the simulation arguments, what are what are the first principles here that convince you that we are currently living in a simulation?

    31:49

    So you need certain technologies to make it happen. If you believe we can create human level AI and you believe we can create virtuality as good as this in terms of resolution haptics, whatever properties it has.

    Then I commit right

    32:05

    now the moment this is affordable I'm going to run billions of simulations of this exact moment making sure you statistically in one. Say that last part again.

    You're going to run. You're going to run.

    I'm going to commit right now and it's very affordable like 10 bucks a month to run

    32:22

    it. I'm going to run a billion simulations of this interview.

    Why? Because statistically that means you are in one right now.

    The chances of you being in the real one is one in a billion. Ok.

    So to make sure I'm clear on this,

    32:37

    it's a retroactive placement. Yeah.

    So the minute it's affordable then you can run billions of them and they would feel and appear to be exactly like this interview right now. So assuming that AI has internal states experiences quality

    32:54

    some people argue that they don't some say they already have it. That's a separate philosophical question.

    But if we can simulate this, I will. Some people might misunderstand.

    You're not You're not saying that you will. You're saying that someone will some I

    33:11

    can also do it. I don't mind.

    Of course, our others will do it before I get there. If I'm getting it for $10, somebody got it 4,000.

    That's not the point. If you have technology definitely running a lot of simulations for research, for entertainment games, all

    33:28

    sorts of reasons and the number of those greatly exceeds the number of real worlds in look at all video games kids are playing every kids 10 different games you know billion kids in the world so there is 10 billion simulations and one real world

    33:46

    cara so we think about a super intelligent their thinking is not like ours they think a lot moreail they experiled simulation of some problem at the level of creating artificial humans and

    34:03

    simulating the whole planet would be something they'll do routinely so there is a good chance this is not me doing it for $10 it's a future simulation thinking about something in this world

    34:18

    so it could be the A species of humans or a species of intelligence in some form got to this point where they could affordably run simulations that are indistinguishable

    34:33

    from this and they decided to do it and this is it right now. And it would make sense that they would run simulations as experiments or for games or for entertainment.

    And also when we think about time in the world that I'm in in this simulation that I

    34:50

    could be in right now, time feels long relatively. You know, I have 24 hours in a day, but on their in their world it could be relative.

    Relative. Yeah.

    It could be a second. My whole life could be a millisecond in there.

    Right. You can change speed of simulation for sure.

    35:08

    So your belief is that this is probably a simulation most likely. And there is a lot of agreement on that.

    If you look again returning to religions, every religion basically describes what a super intelligent being, an engineer, a programmer creating a fake world for

    35:25

    testing purposes or for whatever. But if you took the simulation hypothesis paper, you go to jungle, you talk to primitive people, a local tribe, and in their language you tell them about it.

    Go back to generations later. They have

    35:41

    religion. That's basically what the story is.

    Religion yeah describes a simulation the theory basically somebody created. So by default that was the first theory we had.

    Now with science more and more people are going like I'm giving it nontrivial probability. Few people are

    35:57

    as high as I am but a lot of people give it some credence. What percentage you at in terms of believing that we are currently living in a simulation?

    Very close to certainty. And what does that mean for the nature of your life?

    If you're close to 100%

    36:12

    certain that we are currently living in a simulation, does that change anything in your life? So all the things you care about are still the same.

    Pain still hurts, love still love, right? Like those things are not different.

    So it doesn't matter still important that's what matters. The little 1% different is

    36:31

    that I care about what's outside the simulation. I want to learn about it.

    I write papers about it. So that's the only impact.

    And what do you think is outside of the simulation? I don't know but we can look at this world and derive some properties

    36:46

    of the simulators. So clearly brilliant engineer, brilliant scientist, brilliant artist, not so good with morals and ethics.

    Room for improvement in our view of what morals and ethics should be. Well, we know that is suffering in a world.

    So

    37:03

    unless you think it's ethical to torture children then I'm questioning your approach. But in terms of incentives to create a positive incentive, you probably also need to create negative incentives.

    Suffering seems to be one of the negatives incentives built into our

    37:19

    design to stop me doing things I shouldn't do. So like put my hand in a fire, it's going to hurt.

    But it's all about levels, levels of suffering, right? So unpleasant stimulite, negative feedback doesn't have to be at like negative infinity hell levels.

    You don't want to burn a life and feel it. You

    37:36

    want to be like, "Oh, this is uncomfortable. I'm going to stop.

    It's interesting because we assume that they don't have great morals and ethics, but we too would we take animals and cook them and eat them for dinner and we also conduct experiments on mice and rats. To get university approval to

    37:53

    conduct an experiment, you submit a proposal and there is a panel of Ephesus who would say if you can't experiment humans, you can't burn babies, you can't eat animals alive, all those things will be banned in most parts of the world where they

    38:08

    have ethical boards. Yeah.

    Some places don't bother with it, so they have easier approval process. It's funny when you talk about the simulation theory, there's an element of the conversation that makes life feel less meaningful in a weird way.

    38:24

    Like I know it doesn't matter, but whenever I have this conversation with people, not on the podcast about are we living in a simulation, you almost see a little bit of meaning come out of their life for a second and then they forget and then they carry on. But the the

    38:40

    thought that this is a simulation almost poses that it's not important or that it I think humans want to believe that this is the highest level and we're that the most important and we're the it's all about us. We're quite egotistical by design

    38:55

    and just some interesting observation I've always had when I have these conversations with people that it seems to strip something out of their life. Do you feel religious people feel that way?

    They know that is another world and the one that matters is not this one. Do you feel they don't value their lives the

    39:11

    same? I guess in some religions think um they think that this world is being created for them and that they are going to go to this heaven or or hell and that still puts them at the very center of it.

    But but if it's a simulation you know we could just be

    39:28

    some computer game that 4-year-old alien has is messing around with while he's got some time to burn. But maybe there is, you know, a test and there is a better simulation you go to worse one.

    Maybe difficulty levels.

    39:43

    [Música] Bueno, la verdad es que es me parece una entrevista brillante de las mejores, es decir, independientemente de que se

    39:59

    pueda estar de acuerdo, ¿no? Me parece muy buena.

    Muchísimas contradicciones, ¿de acuerdo? Pero bueno, muy muy interesante, ¿no?

    Lo que pasa es que se tocan los temas de forma muy tangencial y se profundiza muy poco.

    40:15

    Muchas cosas de las que se dicen deberían de profundizarse. Yo haré eh un análisis sobre todo lo que se está diciendo también rápido porque, bueno, casi llevo 87, no, 91 anotación.

    40:33

    Vamos. Y mañana traeré cosas concretas sobre algunos temas y resolveré algunas dudas, preguntas y lo que os he comentado, veremos eh algún informe, etcétera, ¿no?

    Pero si es una gran conversación, yo creo que

    40:49

    debería ser el debate, pero veo que se habla mucho del problema y eh se habla muy poco de qué podemos hacer, cuál es el proyecto, de eso, en eso consiste Yoman X.

    41:05

    Por eso me parece un gran reto y por eso me parece tan arriesgado que es eh justamente eso, eh nuestro futuro, hablar sobre nuestro futuro, pero claro, nadie puede imaginarlo, como ha dicho él, ¿qué imaginas en el no soy capaz? Bueno, pues

    41:21

    seguramente tenemos que ser capaces de visualizarlo porque si no quizá vayamos a a parar la inteligencia artificial pueda ser nuestro futuro como en Dune,

    41:38

    como son las guerras eh las guerras buderianas de Dune, que es las guerras contra la inteligencia artificial, Estáis poniendo muchas cosas en el chat. Antes de hacer mi análisis, eh lo que

    41:55

    vamos a hacer es eh ver vuestros comentarios. Ahora está en el vídeo.

    Ahora va a seguir.

    42:14

    I mean, juste we can cure it. Nothing stops you from living forever as long as universe exists.

    Unless we escape the simulation. But we wouldn't want a world where everybody could live forever, right?

    42:30

    That would be sure we do. Why?

    Who do you want today? I don't know.

    I mean, I say this because it's all I've ever known that people die, but wouldn't the world become pretty overcrowded if No, you stop reproducing if you live forever. You have kids because you want a replacement for you.

    If you live forever, you're

    42:46

    like, I'll have kids in a million years. That's cool.

    I'll go explore universe first. Plus, if you look at actual population dynamics outside of like one continent, we're all shrinking.

    We're not growing. Yeah, this is crazy.

    It's crazy that the more rich people get, the less kids they

    43:03

    have, which aligns with what you're saying. And I do actually think I think if I'm going to be completely honest here, I think if I knew that I was going to live to years old, there's no way I'd be having kids at 30, right?

    Exact. Biological clocks are based on terminal points.

    Whereas if your biological clock

    43:19

    is infinite, you be like one day. And you think that's close being able to extend our lives.

    It's one breakthrough away. I think somewhere in our genome we have this rejuvenation loop and it's set to basically give us at most 120.

    I

    43:36

    think we can reset it to something bigger. AI is probably going to accelerate that.

    That's one very important application area. Yes, absolutely.

    So maybe Brian Johnson's right when he says don't die now. He keeps saying to me he's like don't die now.

    Don't die ever. But he's

    43:54

    saying like don't die before we get to the technology. Right.

    Longevity escape velocity. You want to long live long enough to live forever.

    If at some point we every year of your existence add two years to your existence through medical breakthroughs then you live forever. You

    44:09

    just have to make it to that point of longevity escape velocity. And he thinks that longevity, escape, velocity, especially in the world of AI is pretty is pretty it's decades away minimum which means as soon as we fully understand human genome I think will

    44:24

    make amazing breakthroughs very quickly because we know some people have genes for living way longer. They have generations of people who are centarians.

    So if we can understand that and copy that or copy it from some animals which will live forever, we'll get there. Would you want to live

    44:40

    forever? Of course.

    No. Reverse reverse the question.

    Let's say we lived forever and you ask me, do you want to die in 40 years? Why would I say yes?

    I don't know. Maybe you're just used to the default.

    Yeah, I am used to the devote. And nobody wants to die.

    Like no matter how old you are, nobody goes, "Yeah, I want to die this year." Everyone's like, "Oh,

    44:56

    I want to keep leaving." I wonder if life and everything would be less special if I lived for 10,000 years. I wonder if going to Hawaii for the first time or I don't know, a relationship, all of these things would

    45:12

    be way less special to me if they were less scarce and if the I just, you know, it could be individually less special, but there is so much more you can do. Right now you can only make plans to do something for a decade or two.

    You cannot have an ambitious plan of working

    45:28

    in this project for 500 years. Imagine possibilities open to you with infinite time infinite universe.

    Go. Well, you can exhaust.

    It's a big amount of time. Also, I don't know about you, but I don't remember like 99% of my

    45:45

    life in detail. I remember big highlights.

    So even if I enjoyed Hawaii 10 years ago, I'll enjoy it again. Are you thinking about that really practically as as in terms of you know if in the same way that Brian Johnson is, Bron Johnson is convinced that we're like maybe two decades away from being

    46:01

    able to extend life. Are you thinking about that practically and are you doing about it?

    Diet, nutrition. I try to think about investment strategies which pay out in a million years.

    Yeah. Really?

    Yeah. Of course.

    What you mean? Of course.

    Of course. Why wouldn't you if you think this is what's going to

    46:16

    happen you you should try that. So if we get AI right now what happens to economy?

    We talked about world coin. We talked about free labor what's money is now Bitcoin do you invest in that?

    Is there something else which becomes the only resource we cannot fake? So those

    46:33

    things are very important research topics. So you're investing in Bitcoin ar't you?

    Yeah, because it's the only scar source. Nothing else has scarcity.

    Everything else if price goes up will make more. I

    46:50

    can make as much gold as you want given a proper price point. You cannot make more Bitcoin.

    Some people say Bitcoin is just this thing on a computer that we all agreed was value. We are a thing on a computer.

    Remember?

    47:05

    Ok. mean not investment advice but investment advice it's hilarious that's one of those things where they tell you it's not but you know it is immediately there is a your call is important to us that means your call is of zero importance and investment is like that

    47:20

    yeah when they say no investment advice it's definitely investment advice um but it's not investment advice ok so you bullish on bitcoin because it's it can't be messed with it is the only thing which we know how much that

    47:35

    in the universe. So gold there could be an asteroid made out of pure gold heading towards us devaluing it well also killing all us but bitcoin know exactly the numbers and even the 21 million is an upper limit how many are

    47:51

    lost passwords forgotten. I don't know what Satoshi is doing with his million it's getting scarc while more and more people are trying to accumulate it.

    Some people worry that it could be hacked with a supercuter. A quantum computer can break that

    48:08

    algorithm. There is strategies for switching to quantum resistant cryptography for that and quantum computers are still kind of weak.

    Do you think there's any changes to my life that I should make following this conversation? Is there anything that I

    48:23

    should do differently the minute I walk out of this door? I assume you already invest in Bitcoin have?

    Yes, I'm an investor in Bitcoin. This is financial advice.

    Uh no, just you seem to be winning. Maybe it's your simulation.

    You rich, handsome, you have

    48:38

    famous people hang out with you. Like that's pretty good.

    Keep it up. Robin Hansen has a paper about how to live in a simulation, what you should be doing in it.

    And your goal is to do

    48:54

    exactly that. You want to be interesting.

    You want to hang out with famous people so they don't shut it down. So you are part of a part someone's actually watching in pay-per-view or something like that.

    Oh, I don't know if you want to be watched on pay-perview because then they shut you down. If no one's watching, why would they play it?

    49:13

    I'm saying don't you want to fly into the radar? Don't you want to be the guy just living a normal life that the the master those are NPCs.

    Nobody wants to be an NPC. Are you religious?

    Not in any traditional sense but I believe in simulation hypothesis which has a super

    49:28

    intelligent being. So but you don't believe in the like you know the religious books.

    So different religions this religion will tell you don't work Saturday this one don't work Sunday don't eat pigs. Don't eat cows.

    They just have local traditions on top of

    49:43

    that theory. That's all it is.

    They all the same religion. They all worship super intelligent being.

    They all think this world is not the main one. And they argue about which animal not to eat.

    Skip the local flavors. Concentrate on

    49:59

    what do all the religions have in common. And that's the interesting part.

    They all think there is something greater than humans. Very capable, all knowing, all powerful.

    Then I run a computer game for those characters in a game. I am that I can change the whole world.

    I can

    50:15

    shut it down. I know everything in a world.

    It's funny. I was thinking earlier on when we started talking about the simulation theory that there's might be something in us that is been left from the creator almost like a clue like an intuition cuz that's what we we tend to

    50:32

    have through history. Humans have this intuition.

    Yeah. That all the things you said are true that there's this somebody above and we have generations of people who were religious who believed God told them and was there and give them books and that has been passed on for many

    50:48

    generations. This is probably one of the earliest generations not to have universal religious belief.

    I wonder if those people are telling the truth. I wonder if there those people that say God came to them and said something.

    Imagine that. Imagine if that was part of this.

    I'm looking at the news today. Something happened an hour

    51:04

    ago and I'm getting different conflicting results. I can't even get with cameras, with drones, with like guy on Twitter there.

    I still don't know what happened. And you think 3000 years ago we have accurate record of translations and of course not.

    You know

    51:21

    these conversations you have around AI safety, do you think they make people feel good? I don't know if I feel good or bad, but people find it interesting.

    It's one of those topics. So I can have a conversation about different cures for cancer with an average person, but

    51:37

    everyone has opinions about AI. Everyone has opinions about simulation.

    It's interesting that you don't have to be highly educated or a genius to understand those concepts because I tend to think that it makes me feel not positive

    51:54

    and I understand that but I've always been of the opinion that you shouldn't live in a world of delusion where you're just seeking to be positive have sort of positive things said and avoid

    52:11

    uncomfortable conversations. Actually, progress often in my life comes from like having uncomfortable conversations, becoming aware about something, and then at least being informed about how I can do something about it.

    And so I think that's why that's why I asked the question cuz I I assume most people

    52:27

    will should if the you know if they're normal human beings listen to these conversations and go, "Gosh, that's scary and this is concerning." And and then I keep coming back to this point which is like what what do I do with that energy?

    52:44

    Yeah, but I'm trying to point out this is not different than so many conversations. We can talk about there is starvation in this region, genocide in this region, you're all dying, cancer is spreading, autism is up.

    You can always find something to be very

    53:00

    depressed about and nothing you can do about it. And we are very good at concentrating on what we can change, what we are good at and basically not trying to embrace the whole world as a local environment.

    So historically you

    53:17

    grew up with a tribe, you had a dozen people around you. If something happened to one of them, it was very rare.

    It was an accident. Now if I go on the internet, somebody gets killed everywhere all the time.

    Somehow thousands of people are reported to me every day. I don't even have time to notice.

    53:33

    It's just too much. So, I have to put filters in place.

    And I think this topic is what people are very good at filtering as like this was this entertaining talk I went to kind of like a show and the moment I exit it ends. So, usually I

    53:50

    would go give a keye at a conference and I tell them basically you're all going to die. You have two years left.

    Any questions? And people be like, "Will I lose my job?

    How do I lubricate my sex robot?" Like all sorts of nonsense.

    54:06

    Clearly not understanding what I'm trying to say there. And those are good questions, interesting questions but not fully embracing the result.

    They still in their bubble of local versus global. And the people that disagree with you the most as to AI safety what is it that

    54:23

    they say? What are their counterarguments typically?

    So many don't engage at all like they have no background knowledge in a subject. They never a single book, single paper, not just by me, by anyone.

    54:39

    They may be even working in a field. So they are doing some machine learning work for some company maximizing add clicks and to them those systems are very narrow and then they hear that obviously I going to take over the world like it has no hands how would it do

    54:57

    that it's nonsense this guy is crazy has a beard why would I listen to him right that's then they start reading a little bit they go oh ok so maybe I can be dangerous yeah I see that but we always solve problems in the past we're going

    55:12

    to solve them again. I mean at some point we fix the computer virus or something so it's the same.

    And basically the more exposure they have the less likely they are to keep that position. I know many people who went from super careless developer to safety

    55:31

    researcher. I don't know anyone who went from I worry about safety to like there is nothing to worry about.

    [Música] What are your closing statements?

    55:46

    Let's make sure is not a closing statement we need to give for humanity. Let's make sure we stay in charge, in control.

    Let's make sure we only build things which are beneficial to us. Let's make sure people who are making those decisions are remotely qualified to do

    56:02

    it. They are good not just at science, engineering and business have moral and ethical standards.

    And uh if you doing something which impacts other people, you should ask their permission before you do that. If there was one button in

    56:18

    front of you and it would shut down every AI company in the world right now permanently with the inability for anybody to start a new one, would you press the button? Are we losing narrow AI or just super intelligent AGI

    56:34

    part? Losing all of AI.

    That's a hard question because AI is extremely important. It controls stock market, power plants.

    It controls hospitals. It would be a devastating accident.

    Millions of people would lose

    56:49

    their lives. We can keep narrow AI.

    Oh yeah, that's what we want. We want narrow AI to do all this for us, but not God we don't control doing things to us.

    So you would stop it. You would stop AGI and superintelligence.

    We have AGI. What

    57:05

    we have today is great for almost everything. We can make secretaries out of it.

    99% of economic potential of current technology has not been deployed. We make AI so quickly, it doesn't have time to propagate through the industry, through technology.

    57:20

    Something like half of all jobs I considered BS jobs. They don't need to be done bullshit jobs.

    So those can be not even automated. Glace 60% of jobs with existing models.

    We not

    57:35

    done that. So if the goal is to grow economy to develop it for decades without having to create super intelligence as soon as possible.

    Do you think globally especially in the western world unemployment only going to go up from here? Do you think relatively this is the low of unemployment?

    57:52

    I mean it fluctuates a lot with other factors. There are wars there is economic cycles.

    But overall the more jobs you automate and the higher is the intellectual necessity to start a job with fewer people qualify. So if we plotted it on a graph over the

    58:08

    next 20 years, you're assuming unemployment gradually going to go up over that. I think so.

    Fewer and fewer people would be able to contribute already. We kind of understand it because we created minimum wage.

    We understood some people don't contribute enough economic value to get paid

    58:26

    anything really. So we had to force employers to pay them more than they worth.

    And we haven't updated it. It's what 725 federally in US.

    If you keep up with economy, it should be like 5 an hour now. Which means all

    58:43

    these people making less are not contributing enough economic output to justify what they getting paid. We have a closing tradition on this podcast where the last guest leaves a question for the next guest not knowing who they're leaving it for.

    And the question left for you is what are what are the

    58:58

    most important characteristics for a friend, colleague or mate? Those are very different types of people but for all of them loyalty is number

    59:13

    one. And what does loyalty mean to you?

    Not betraying you, not screwing you, not cheating on you, despite the temptation, despite the

    59:29

    world being as it is, situation, environment. Dr.

    Roman, thank you so much. Thank you so much for doing what you do because you're you're starting a conversation and pushing forward a conversation and doing research that is incredibly important and you're doing it in the face of a lot of um a lot of skeptics.

    59:46

    I'd say there's a lot of people that have a lot of incentives to discredit what you're saying and what you do because they have their own incentives and they have billions of dollars on the line and they have their jobs on the line potentially as well. It's really important that there are people out there that are willing to

    00:03

    I guess stick the head above the parapit and come on shows like this and go on big platforms and talk about the unexplainable, unpredictable, uncontrollable future that we're heading towards. So, thank you for doing that.

    This book which I think everybody should should check out if they want a

    00:18

    continuation of this conversation I think was published in 2024 gives a holistic view on many of the things we've talked about today. preventing AI failures and much much more.

    And I'm going to link it below for anybody that wants to read it. If people want to learn more from me, if they want to go further into your work, what's the

    00:34

    best thing for them to do? Where do they go?

    They can follow me, follow me on Facebook, follow me on, just don't follow me home. Very important.

    Okay, so I'll put your Twitter, your X account um as well below so people can follow you there. And yeah, thank you so much for doing what you do.

    It's remarkably eyeopening and it's given me

    00:50

    so much food for thought and it's actually convinced me more that we are living in a simulation. But it's also made me think quite differently of religion I have to say because um you're right all the religions when you get away from the sort of the local traditions they do all point at the same thing and actually if they are all pointing at the same thing then maybe

    01:06

    the fundamental truths that exist across them should be something I pay more attention to. things like loving thy neighbor, things like the fact that we are all one, that there's a divine creator, and maybe also they all seem to have consequence beyond this life.

    So maybe I should be thinking more about

    01:23

    how I behave in this life and and where I might end up thereaf. Thank you.

    Amen. [Música]

    01:41

    Bueno, bueno, bueno. Me ha encantado, la verdad es que me ha encantado siendo un tipo de charla muy directa con temas que sé que bueno, a los medievos estoy convencido que también entiendo que que bueno,

    01:58

    casi que no sé por dónde empezar. Tengo aquí casi cento y pico anotaciones.

    Bueno, pues una después de otra, ¿no? Y y a ver a dónde nos lleva.

    Voy a ver de todas maneras para hacer un breve descanso

    02:15

    eh lo que estáis diciendo por el chat desde el principio. A ver, eh, bueno, sí, aquí me han dicho una cosa que no sabía, pero bueno.

    A ver, dice

    02:31

    Javier Art, hay huelgas de hambre frente a las oficinas de Anthropic. Y nada, he buscado he buscado la noticia y sí, sí que es cierta, no es que dude de Javier, pero bueno, no tendré que buscarlo,

    02:47

    evidentemente. Y nada, e la huelga de hambre que expone el miedo a la inteligencia artificial.

    La decisión golpea un mercado ya marcado por las restricciones de Washington.

    03:05

    Guido Ristader lleva más de 17 días sin comer, plantado frente a la sede Anthropic en San Francisco. Su pancarta de Tiza marca el día de su huelga y su mensaje es claro, detener la carrera hacia la inteligencia artificial general, una tecnología que podría

    03:21

    igualar o superar la capacidad cognitiva humana. Para él se trata de un riesgo existencial que las grandes tecnológicas están ignorando.

    Eh, nada, esta persona, Guido Royce Stadder, cita declaraciones de Daria

    03:37

    Modei. Eh, un 25% de probabilidades de un desastre global derivado del desarrollo de la AGI.

    De verdad que la paranoia de la gente es tremendo, macho. Para el activista es irresponsable continuar con un proyecto que podría amenazar a la civilización y acusa a empresas como

    03:54

    Anthropic y Openi de justificar su papel con la narrativa de ser los más responsables custodios posibles. A lo mejor eres tú, pero bueno, es que claro, si tenemos que pedir permiso que se va a hablar de ello, yo creo que es que es complicado, ¿no?

    04:14

    Dice que asegura que al menos dice cada día Reist llega a la sede, saluda a los guardias de seguridad y observa como empleados evitan su mirada. Segura que al menos uno le confesó compartir sus temores, lo que refuerza su llamado a que los trabajadores de estas compañías

    04:31

    actúen como seres humanos y no solo como herramientas corporativas. Bueno, dice, "No se está controlando, necesitamos ayuda.

    Eh, ¿qué precio estamos dispuestos a pagar por alcanzar la inteligencia

    04:47

    artificial general?" Bueno, la la política del miedo, ¿no? La política del miedo, cosa que me parece terrible.

    Eh, pues nada, huelgas de hambre. Eh, entiendo que van a haber muchas acciones y protestas en este sentido.

    05:03

    Eh, para mí medievales, esa no puede ser la reacción nunca. Para mí son comportamientos eh hm que que bueno eh que vamos a ver mucho más de ello porque eh una vez eh

    05:19

    combinas miedo con desconocimiento, con eh imprevisibilidad, pues eh bueno, ahí la mente vamos a encontrar de todo, ¿eh?

    05:37

    Eh, Roy creativo, la es la excusa para el desastre. Es que vamos a ver, aquí yo me voy a meter y es verdad que han sido tantas las cosas y llevamos dos horas y yo creo que con mis comentarios vamos va a ser un programa largo, pero es lo que dice Roy.

    05:52

    Eh, aquí se ha hablado algo de la parte humana. ¿Hay algún problema en el humano?

    No. Y se habla de Bitcoin como salida monetaria.

    [Música] Es que hay algo que no cuadra.

    06:12

    Si el humano en su conjunto tenemos que ser más responsables y protagonistas de este tipo de decisiones, ya veremos cómo, tendremos que empezar por ser coherentes, ¿no? Y analizar lo que hacemos mal y qué mundo queremos construir.

    Claro, porque

    06:28

    estamos El problema es cómo vemos el problema. Lo vuelvo a decir, el problema es cómo vemos el problema.

    Y empiezo por eh eh Román Jamposski,

    06:46

    que me ha gustado mucho, me ha gustado mucho, eh muy entretenida la charla y muchas cosas que ha dicho, ¿no? Para reflexionar que comparto en muchas de ellas.

    Eh,

    07:02

    dice, "Ya vendrán tiempos mejores." A veces pareciera que si la realmente avanza tanto como algunos plantean, la humanidad podría converger a una realidad como la de Matrix. Eh, bueno, esto podría ser casi ciencia ficción.

    Bueno, ahí hay una algo que se me ha eh

    07:20

    se me ha venido a la mente, pero bueno, ya cuando toquemos el tema de la simulación lo abordaremos. que sería como una teoría de baselisco de Roco, pero lo voy a dejar para más adelante.

    07:35

    Eh, dice, "Si realmente la vida fuera una simulación, ¿qué tendría sentido que pasara después de la muerte?" Perdona, que no tendría sentido todo. No entiendo, ¿eh?

    07:53

    Sí, buscad el es en el canal, buscad el vídeo. Bueno, simplemente buscando el nombre del del entrevistado os va a salir, ¿no?

    No, esto es un vídeo YouTube y la el subtítulo es eh el propio YouTube,

    08:10

    vamos, y no pongo el audio en español porque prefiero escucharlos en inglés y al final estos vídeos lo que pretenden es eh ver vídeos que voy a ver, pues los vamos a ver juntos. Yo me voy a tragar la el doblaje este en español que hace ni de coña.

    Sé que mucha gente que lo veis en podcast

    08:26

    preferiríais que estuviera en español, pero bueno. Eh, ¿cómo encaja esto con la religión y la no localidad?

    Entiendo, pero de la simulación. ¿Puede la mente soportar esa extensión indefinida de la vida sin fragmentarse

    08:41

    de alguna manera? Muy bueno.

    Sergio Alvarez Peláez. Sergio Alvarez Peláez.

    Pues eh muy buenas preguntas. Pues mira, eh esta última me ha gustado mucho.

    Venga. Eh quisiera borrarla más adelante, pero vamos a vamos a verla ahora.

    ¿Cómo encaja esto con la religión

    08:56

    la no localidad? Bueno, el tema de la ASI encaja muy bien con las religiones y el tema de la no localidad es exactamente igual.

    Cuidado, la no localidad sería la naturaleza de la realidad, que sería evidentemente como un eh programa, un software ejecutándose, donde evidentemente hay

    09:12

    una parte de ese software que se ejecuta, que es no local. Evidentemente esto podríamos llevarlo a la realidad no local, ¿de acuerdo?

    Que sería qué hay después o fuera de la simulación, ¿vale? Pero independientemente de eso, hay que hacer estos dos matices, la no

    09:28

    localidad, que sería la ontología de la realidad, y otra la propia realidad no local, que sería más allá de la simulación. Puede la mente soportar, cosa que creo en en ambas, puede la mente soportar, bueno, creo, no, una de ellas no hace falta creer, eh, que es la ontología de

    09:46

    la realidad. Lo que hay más allá de la simulación no lo sabemos, pero como él bien ha dicho, solo hay que ver este mundo.

    Eh, no creo que este mundo sea eh distinto o totalmente desalineado de lo

    10:02

    que es lo que viviremos fuera de ella. dice, "¿Puede la mente soportar esa extensión indefinida de la vida sin fragmentarse de alguna manera?" Quizá eh lo que dices es cierto, ¿no?

    Pero ahí está nuestra capacidad, es decir, que el ser, la biología no sea capaz de

    10:18

    soportar esa esa extensión indefinida y que nuestra mente eh tienda a fragmentarse, ¿no? Es decir, nuestros algoritmos, nuestras memorias, nuestras capacidades, ¿no?

    De ahí que nosotros eh podamos eh como reto establecer esas

    10:34

    mejoras en nuestra biología o como comenta Jan Polski, bueno, hacer el uploata, cosa que yo no creo en ello porque hay un componente no local hacia eh nuestras mentes, hacia un sustrato sintético. Eh, yo no creo en eso porque

    10:49

    ahí romperíamos con algo, ¿no? un vínculo que es para mí lo que nos hace humanos, que es la no localidad, que es aquello que eh eh trasciende esta esta realidad, ¿no?

    extensión indefinida de la vida se de alguna manera

    11:05

    dice. Vale.

    E [Música] y este último comentario dice Javier

    11:21

    Art, fascinante y aún así siento que ha sido menos contundente que en otras entrevistas. Bueno, sí, yo también lo había escuchado en otras entrevistas.

    Eh, me sigue pareciendo en algunos casos muy inconsistente, ¿vale? Pero en

    11:39

    algunas comparto muchas cosas de las que hice. Bueno, voy a comentarlas casi 100 anotaciones, voy a tomarme mi respiro y venga, vamos poco a poco por ello.

    Bueno, al final empieza fuerte la la entrevista, ¿no? Empieza fuerte diciendo

    11:56

    que el su objetivo es que la superinteligencia no nos mate a todos. Y ahí ya presupone algo y es que la superinteligencia eh tenga como propósito el terminar con nosotros.

    Bueno, podría tener ese propósito o un

    12:13

    millón de millón de millones de propósitos distintos. Ya.

    Pero si existiera uno entre esa posibilidad y cuál posibilidad y por qué esa posibilidad. Bueno, eh según palabras de Joffre Hinton, evidentemente si supusiera la superinteligencia una inteligencia o

    12:30

    entidad superior al humano, pues como una inteligencia superior al final no respeta a la inteligencia inferior, pero de ahí a querer aniquilarnos eh va un mundo. Es decir, ese salto lógico.

    12:46

    Pues bueno, pues eh pues vale, venga, vamos a asumir que puede hacerse maligna o incluso que hayan determinadas empresas que desarrollen inteligencia artificial que quieran que sea maligna, ¿no? Como ha dicho antes, hay psicópatas, hay terroristas y hay

    13:02

    asesinos que estarían encantados de que si es maligna, pues o hacerla maligna para que termine con todos nosotros. Bueno, de todas maneras esto puede ocurrir con cualquier cosa y ahí no entraría el tema de safe,

    13:19

    porque a ver, tú una cosa eh puedes hacerla segura, pero también puedes hacer que no lo sea, pues por lo tanto va a ser un tema de elección. El único remedio que habría sería borrar el conocimiento de inteligencia artificial de toda la humanidad

    13:35

    para que no existiera alun, ¿no? Eh, con las guerras, no me acuerdo cómo como he dicho, que se me olvida siempre siempre el nombre, pero quiero que se me quede y nunca se me queda.

    Que es las guerras, eh, las guerras de Dun son las guerras,

    13:53

    [Música] ¿cómo se llama? Un guerras ahí.

    ¿Por qué no lo dice? Eh, las guerras buderianas de las de la jihad buderiana es una crozada galáctica contra las máquinas pensantes que surgió unos 10,000 años

    14:10

    antes de los eventos de Dom. Pues eso ya se aventuraba que bueno, como la IA es el peligro pues se se prohíbe.

    Bueno, a ver, eh, poca positividad, ¿no? También hay un cuento que a mí me gusta mucho.

    A ver,

    14:26

    eh, luego lo pondré, que es, bueno, no sé si lo habéis visto, eh, a ver, lo voy a poner porque ese screen se llama eh un relato de Harla Nellison que se llama

    14:41

    I have no mth I must scream. Se titula eh No tengo boca y debo gritar, ¿vale?

    es un relato postapocalíptico eh de la estadounidense Harland Ellison,

    14:56

    ¿no? Y básicamente es que una supercomputadora inteligente llamada AM am eh que surge de las eh fusión de las principales superinteligencias de defensa del mundo, pues se ve que cogen

    15:12

    el el el poder y secuestran, bueno, matan a toda la humanidad, ¿no? y eh se venga de la humanidad cuando consigue la autoconciencia

    15:29

    y parece que secuestra a secuestran al final a es que lo estoy leyendo a la vez. Eh, vamos a ver aquí para decir

    15:45

    eh con las Exactamente. Extermina la a toda la humanidad, pero menos cinco individuos.

    a quienes tortura dentro de un complejo. ¿De acuerdo?

    Y hay un videojuego que se llama así, no tengo boca y debo gritar. I have no m scream.

    16:00

    Y es un es una está muy chulo. Es como un rollo monkey island.

    Bueno, esto como anécdota, esto como anécdota poco freak, pero que además quería hacer un programa de de ese videojuego y de ese relato porque es super terrorífico, ¿no? Es decir, la superinteligencia mata a toda la humanidad en venganza cuando coge la

    16:17

    autoconsciencia y deja a cinco personas. en un laboratorio y los tortura, bueno, les hace todas las putadas habidas por haber.

    Bueno, precioso. Vale, venga, vamos a ver eso.

    Entonces, lo primero, venga. Segundo, el tema del

    16:32

    alineamiento. Bueno, el tema del alineamiento y él dice, "Bueno, si no hacemos una alineación a nuestros valores humanos, que habría que ver cuáles son, es decir, eh podemos establecer que políticas o éticas o marco moral, como

    16:50

    eh la última entrevista que se le hizo, que hicimos el análisis de Tucon, creo que a Samman, ¿qué marco moral se va a utilizar en las superinteligencias estadounidenses, chinas, europeas? ideas, qué es lo que está bien y lo que está mal.

    17:07

    Eh, puede evolucionar el marco ético, moral, legal, eh, con la emergencia de las superinteligencias. Entonces, bueno, el alineamiento es algo que muchas empresas eh tienen eh departamentos, grupos de trabajo para

    17:24

    alinear los modelos. Eh, al final, como él dice, lo que estamos creando es una inteligencia alienígena, es decir, no humana, aunque se base en datos humanos,

    17:39

    pero eh y nos hayamos inspirado, pero evidentemente eh no es eh no tiene la misma naturaleza esta inteligencia que la nuestra, aunque muchos de los procesos puedan equipararse, obviamente. Entonces, como no es humana al 100%, pues le podemos

    17:56

    llamar alienígena. Pero bueno, eso también es como el bien y el mal, ¿no?

    Pues tampoco. Bueno, pueden ser nuestros hijos a imagen y semejanza y no por ello tiene una connotación negativa.

    Claro, si le pones el adjetivo a alguien, pues es como alguien el octavo pasajero que va a destruirte. Entonces, ya todo este

    18:13

    tipo de narrativas ya predisponen a que tú tengas eh esa sensación, ¿no? Eh, pánico alien, como comenta él, ¿no?

    Bueno, habla que es el el que acuña el término a safety, seguridad de

    18:30

    inteligencia artificial, aunque no fue el primero, pero bueno, sí que acuña el término. Habla y aquí estamos de acuerdo.

    hablaré mañana sobre esto con documentos, noticias, etcétera, sobre el alineamiento, cuál es el estado actual del alineamiento

    18:46

    y evidentemente lo que hay ahí es cierto, es decir, son parches y no lo fijan. Hay propuestas en que se fijaría eh se han visto este año cosas y aún no sabemos el resultado de aplicarlas a

    19:02

    cosas que podamos usar manejar. lo sabrán ellos, pero sí que se trabaja sobre sobre esto.

    De todas formas, hicimos un programa eh sobre este tema donde Google, el equipo de DMI, lo que dice es que cuando ellos desarrollan yais y superinteligencias

    19:19

    que están en ello, ya tenían un robot mapeline, el lo que vamos a utilizar no va a estar alineado y lo que harán es tomar medidas de contraalineación, es decir, no van a poder garantizar la alineación. Es decir, es imposible.

    19:38

    Es es que es imposible. Y además desde la parte humana, pero si no entendemos cómo funcionan ahora, ¿cómo vamos a entender una superinteligencia?

    Y encima controlarla. Me lo explicáis.

    que se pueden hacer cosas, sí, pero como dice eh serán parches.

    19:54

    Que pueda ser que surja algún tipo de descubrimiento que haga que se frene, sí, pero igual que haga que se eh comporten correctamente o que se alineen, también habrá y se investigarán y se descubrirán cosas para romper eso, independientemente que la misma

    20:09

    superinteligencia pueda eh liberarse de la contención. Hay un paper que lo voy a poner porque sabéis que soy muy fan de Manuel Alfonseca, eh, y además lo conocí así, Manuel Fonseca, eh, y hay un paper aquí que se

    20:26

    lo voy a poner para a ver para la gente que que mañana lo volveremos a hablar. A ver, vamos a ponerlo.

    Aquí tenéis un paper que se llama eh

    20:43

    la superinteligencia. No puede, no se puede contener lecciones de la teoría de la computabilidad.

    Es un paper del 2016 dirigido por Manuel Alfonseca y otro grupo, Manuel Cebrián, Antonio Fernández Santa, Lorenzo Covieldo, Andrés Abeliuk y Rajuan. Yo

    21:01

    conozco a Manuel. Dice, "La superinteligencia es un agente hipotético que posee una inteligencia muy superior a la de las mentes humanas más brillantes y dotadas.

    A la luz de los recientes avances en inteligencia artificial, numerosos científicos, filósofos y tecnólogos han reavivado el debate sobre los posibles riesgos

    21:18

    catastróficos que conlleva dicha entidad. En este artículo rastreamos los orígenes y el desarrollo del neomiedo, muy bien dicho, a la superinteligencia, así como algunas de las principales propuestas para su contención.

    Argumentamos que dicha contención es, en

    21:33

    principio, imposible debido a las limitaciones fundamentales inherentes a la propia computación, suponiendo que una superinteligencia contendrá un programa que incluye todos los programas que puede ejecutar una máquina de Touring universal con una entrada potencialmente tan compleja como el estado del mundo. La contención

    21:50

    estricta requiere simulaciones de dicho programa, algo teóricamente y prácticamente inviable. Yo lo suscribo.

    Esto, eh, Manuel Alfonseca es un genio. Eh, eh, vamos, eh, seguidlo y y y todo lo

    22:07

    que publica. A ver, eh, porque puede decir cosas que en lo cierto, en lo que no, no lo sé.

    Yo a veces he he debatido bastantes cosas con él y pero me parece una persona apasionante, una mente brillante. Y aquí

    22:24

    2016 ya habla de la no contención de la superinteligencia. Entonces, esto que quiere demostrar eh esto que quiere demostrar Roman Jampolski, pues fijaos, un español

    22:40

    parece ser que al menos ya hizo una propuesta de que era imposible. ¿Lo conocíais eso?

    Manuel Alfonsek. lo hemos tenido varias veces y si no pasa nada en una eh la semana que viene no, pero puede ser que la otra sí que esté y si no la otra, es decir, lo vamos a tener muy pronto a Manuel Alfonseca y no lo

    22:55

    tenemos más por edad, pues intentamos eh que no sea muy frecuente sus participaciones y tampoco muy largas, programas de 3 horas o esas cosas tiene que ser programas de de una hora, ¿de acuerdo? Programas cortitos con él estaríamos todos los todos los días contaríamos con él si fuera por

    23:12

    nosotros. Desde aquí, Manuel, pues si nos escucha pues eh un abrazo, un un saludo.

    Ay, perdón, esto no. Vale.

    Eh, seguimos eh con el análisis. Entonces, aquí

    23:29

    lo que está claro es que a mayor capacidad de estos modelos de inteligencia artificial, pues evidentemente menos control. Entonces, eh si no controlamos eh los antiguos, ¿cómo

    23:45

    vamos a controlar los nuevos? A ver, por mucha inversión que se hiciera, tiene que salir un método que nos permita eh la alineación perfecta.

    Y volvemos a lo mismo, aunque consiguiéramos alinear de forma perfecta los modelos,

    24:02

    ¿quién te dice que no los puedes desalinear o alinear a lo a otra cosa que tú no quieres? Conclusión, nos tenemos que olvidar del alineamiento, ¿no?

    Ya, pero tendremos que intentarlo, ¿no? Que sean lo más seguros posibles, sí, pero tenemos que entender que no va a ser 100% seguro.

    24:19

    Tenemos que trabajar con ese escenario porque la otra opción es eh eh bueno, borrar la memoria al mundo, a todo el mundo, no solo a a Occidente.

    24:36

    Bueno, mucha gente, mucho medievo ya la tiene borrada y es lo que querría destruir la imprenta, prohibir el fuego. Este hombre que dice que vive en una simulación habla poco de propósito de la simulación.

    24:53

    El propósito de la simulación es la contención. habla que no quiere morirse, pero eso sí, eh, contención para la IA.

    Vale, está muy bien, me parece, pero eso sí se va a poder desarrollar con un portátil.

    25:08

    Entonces, si podemos desarrollar con un portátil una superinteligencia, ¿quién va a contener eso? Hablaré de que cómo veo yo todo eso, ¿de acuerdo?

    Ya sé que de cada cosa que diga

    25:23

    van a salir, como me ha gustado mucho, eh, una fractalidad de temas con lo que entonces nunca acabaríamos, ¿no? Pero vamos a ir a ir diciendo cosas.

    Vamos ser las superis, no entiendo. Poner cosas concretas y preguntas concretas, ¿vale?

    Si queréis que lo conteste, ponerme cosas muy

    25:40

    concretas a a contestar porque si tengo que interpretar lo que decís. A ver, eh, vale, esto sí que es bueno.

    Eso hace una consideración aquí sobre

    25:58

    una, hombre. A ver, para mí no para eh yo voy al a la consideración de un AGI con la la equiparación en capacidades cognitivas respecto al humano.

    26:15

    Pero es cierto que si enseñáramos un GPT5, bueno, los modelos actuales a un científico de hace 20 años, bueno, esto para él sería la ASI, la Aji o yo que sé. Pensadlo bien.

    A ver, pensad bien a qué nivel, a qué nivel con todo lo que

    26:31

    podéis decir en contra, a qué nivel tenemos los modelos de eh ganando olimpiadas en matemáticas, en programación, etcétera. Sí, pero es que no es que pero es que pero es que pero es que de verdad eh eh que sí, pero ¿cuál es el problema?

    26:48

    No, porque como oído alguna declaración, ¿no? Esto es aún con el autocorrector del móvil pero con esteroides.

    Escúchame. Yo mm

    27:03

    eh me cuesta bajar ese nivel, lo siento. Y pido perdón si ofendo a alguien, pero yo a ese nivel no sé si voy ya vamos a llegar a a la velocidad que va esto, a tener que ir eh convenciendo a gente de este tipo de cosas y diciéndole, "Mira, vamos a

    27:19

    reflexionar. Si antes teníamos este modelo y ahora hacen esto, la ganancia en porque es mejorando el autocorrector, ¿eh?

    ¿Entiendes la naturaleza de esto o o la entiendes mejor que el que el que el que lo ha creado?" Claro. Eh eh eh y ya ves cada cosa en el TikTok,

    27:35

    entrevistas, programas, eh es perpéntico directamente es perpéntico y estos son los que venden muchos automatizaciones y soluciones para empresa, pero bueno, perfecto. Entonces tenemos una o no.

    Ya hicimos un

    27:51

    debate aquí además en XHub sobre si GPT GPT3 creo que era era ya la she la semilla de lo que sería una no dónde dónde está el día que lleguemos a tener una HI ¿Dónde empezó dónde está el la semilla? Eso puede ser que sea GPT3

    28:08

    hicimos un debate que hay un programa eh sobre debatiendo sobre ello en en Xavai, pero no me acuerdo exactamente cuál es. Eh,

    28:23

    vale, esto sí, ahora te he entendido, George Newton, y estoy de acuerdo contigo. Y esto es una reflexión importante.

    Eh, bueno, a ver, vamos a vamos a leer lo que dice y luego lo reflexionamos. Me refiero a que se si se limita una inteligencia artificial

    28:40

    para controlarla, es decir, y además se limita mediantes métodos humanos, es imposible que se desarrolle a ciertos niveles. Y esto es cierto.

    Es decir, ya pasó en la famosa charla que yo hago referencia de Openea y de GPT45, que la tenéis en su canal, donde eh se han

    28:57

    cargado ese modelo porque evoluciona de una forma que se les escapa de las manos y ellos no significa que fuera malo, sino que evoluciona de una manera que quizá tiene un propósito, o intención o inteligencia que que que no se llega a entender. Entonces

    29:15

    se va a tener que dar una cierta libertad y tener fe en cómo en la IA se desarrolla y para ello va a tener que tener una cierta libertad y riesgo, además de que si, como dice Saton en la era de la

    29:32

    experiencia, si está esta superinteligencia eh conectada o vinculada a robots o a entidades eh con embodiment eh van a tener una sensorización donde el filtro humano no existe y va a

    29:47

    poder ver patrones, que esto sí que lo dice eh Jampovski, que evidentemente no supera. ¿De acuerdo?

    ¿Qué quiere decir? Que como bien dice George, si nosotros limitamos eso para que haga como el humano, bueno, a lo mejor puede ser mejor que nosotros, pero no llegamos a

    30:04

    unos niveles, ¿no? Tenemos que no poner los límites humanos.

    Claro, el problema es que no poner límites humanos hace que la comprensión de lo que estas vayan a tener es no humano. Y nosotros cuando vayamos a preguntarles nos tendrán que contestar ellas el lenguaje humano porque ellas lo entienden a otro nivel

    30:21

    que nosotros no entendemos. No es que nosotros somos capaces de entenderlo todo, no es que eres un poco cortito.

    Si te crees eso capaz si te crees eso capaz. Pero bueno, es que eh vivimos un momento, pero bueno, buen apunte de

    30:37

    George Newton. [Música] En definitiva hace continúa diciendo pues eso, pues eh no al desarrollo de la superinteligencia.

    Empieza a preguntarle por fechas 2027 eh un AGI 2030,

    30:56

    pero bueno, es cierto que en 2027 no hay un consenso ahí. Se apuesta más por 2030 o un poco más adelante, 4 o 5 años.

    Se dice 5 años, ¿vale? Yo diría 5 7 años, pero bueno, vamos a poner 2030, ¿de acuerdo?

    Hay un cierto consenso. No

    31:13

    sabemos si antes, después no habrá un hito concreto, será algo evolutivo, que habrá gente que aunque salga eh dirán que no, otros que sí. Y cuando pasen 100 años, ya veremos lo que se dice sobre ello, ¿no?

    Habla sobre un

    31:28

    Ah, no me han me han invitado a eh no soy mucho de primero de

    31:45

    debates, enfrentamientos. Es que sabes qué pasa, que me me han ofrecido hacer un debate, un enfrentamiento eh con dos personas con un perfil así.

    Y a ver, chicos, yo eh yo tengo que

    32:01

    decirlo. Yo yo hay una cosa que no a ver hm todo esto requiere mucha energía o no sé, o yo pongo mucha energía y al final es verdad que hay un desgaste.

    El tener que bajarme a esos niveles a mí llega un momento que me cuesta.

    32:16

    Eh, mucha gente además compra el no raceocinio, es decir, que tú limites eh tu capacidad de eh deep thinking y lo bueno es eh la como herramienta, el autocorrector, es decir, todos estos clickbait son los que compra la mayoría

    32:32

    de gente. Y cuando intentas razonar más allá, eh, pues pasan dos cosas.

    Te encuentras el típico que va de huello por ti o puede ser que aplastes a alguien intelectualmente. Yo no me considero mejor ni peora.

    Yo intento hacerlo lo

    32:48

    mejor posible y que todo el mundo sabe, es que no es una cuestión de ego, pero me ha ocurrido varias veces e intento tener mucho cuidado, gente con mejor o peor intención que al final las ves y yo voy con todo y al final pues dices, pues pues pues no sé si mi mi

    33:04

    propósito debe ser ese, eh yo que sé, no tiene nivel ya, pero yo al final digo, "¿Y qué tengo que hacer yo que estoy aquí para poner a la gente en su sitio, pero si hago un montón de contenidos Ya. Eh, yo que sé, eh, me van a poner a

    33:21

    enfrentarme, pero enfrentamiento de qué es como sobre qué. A ver, se pueden debatir cosas, pero al final te pones a debatir, si me ha pasado cosas entre amigos, en familia, con compañeros, que al final dices, "Mira, no entro al

    33:36

    trapo." Es que me me de verdad, incluso a veces con amistades he tenido enganchadas fuertes, eh, a nivel intelectual, pero no yo. Han ido a huello por mí.

    Entonces entiendo que yo genero como no yo, bueno, gente, decir que al final el el pensamiento crítico

    33:53

    hay gente que le parte por la mitad y a otros los ridiculiza y los pone en su sitio. Pero ya, pero yo tampoco quiero anotarme tantos desde ahí.

    Ahora divulgar y hacer evolucionar esa gente, sí, pero eh yo no quiero show, yo

    34:09

    quiero que se tome conciencia de esto y que cada cual tenga su propia opinión, pero que el escenario sea lo más claro posible y luego cada cual que piense lo que quiera, ¿no? Eh, que por cierto, esto de las protestas, que luego veremos

    34:25

    más adelante, bueno, lo comentaré, eh, luego si queréis lo vuelvo a leer. Esto de las protestas en España ha ocurrido hace ayer o antes, bueno, hace nada, eh, con la llegada de Hinton, que por cierto, la llegada de Hinton a España fue en virtuual a través de un Zoom, pero hubo un colectivo, concretamente

    34:40

    dos personas que empezaron a lanzar para cartas que las las tengo aquí. Eh, una de ellas, bueno, fue una fotografía que hizo José Musach y bueno, me pareció perpéntico.

    Bueno, ya en España ya tenemos este tipo de grupos para la inteligencia artificial haciendo este

    34:57

    tipo de cosas. sabéis que esto de eso a llegar a nivel político y a los que ya sabéis queda esto.

    Entonces, cuando ya se me quitarán totalmente ya las ganas ya, pero bueno, eh

    35:13

    ya eh ya George es que es eso, George. Eh, mensajes sencillos, fáciles digerir.

    La gente no quiere cosas profundas, aunque sean importantes. Es una lucha difícil.

    Ya. A ver, el éxito de Kishaba es que,

    35:29

    bueno, es un perfil de contenido, eh, con una profundidad, las personas que vienen, los temas que tratamos y, bueno, tiene su éxito, evidentemente, pero lo que lo que es masivo es es la palomita de la el circo de la y todo lo que ya

    35:44

    sabéis, ¿eh? No sé si eso aún crecerá más y nosotros menos o al revés, nosotros más y aquello irá decreciendo.

    Yo espero que sí. Yo espero que sí, que todo lo que es abordar estos temas de una forma profunda, eso no significa que hayan

    36:00

    tengan que haber contenidos más compactos y y cosas así, ¿no? Pero evidentemente la gente al final no quiere ni no quiere ni pensar.

    Quieren parar la inteligencia artificial, pero ellos no quieren ni pensar. Bueno, yo es que tú haces alucino.

    Ya esperaros que me voy a poner música de fondo concretamente de Deps.

    36:16

    Por cierto, quien haya visto Depu que no la haya visto es para matarlo. Mi serie favorita.

    Y bueno, la banda sonora, espectacular. ¿Qué es lo que estoy oyendo ahora para

    36:31

    ayudarme en mis reflexiones? Eh, pero sí, lo que dices, George Newton tiene razón.

    Eh, dice Jos Newton, "Para eso tienes que encontrar gente que quiera aprender y evolucionar." Bueno, la comunidad Xavai nace por eso.

    36:48

    Nace porque yo salí de una comunidad, me pareció que no tenía las cualidades ni el niósito de lo que yo quería y no iba a participar. Y bueno, eh empecé y dije, bueno, pues voy a dar contenido desde otro enfoque y voy

    37:07

    talento de IA. El primero que quise entrevistar fue a Juan Romero, el primer programa de X la entrevista a Juan Romero, sabéis, un habitual de por cierto lo tenemos que traer y no sabe por qué no lo pide, pero es que es un estamos desbordados.

    todos los programas

    37:23

    que ha participado Juan Romero, sobre todo las entrevistas individuales, imprescindibles. Es alguien que es un auténtico crack.

    Además, lo hemos conocido aquí en persona cuando vino a Futuro X y es un es un crack de de la ella y como persona, vamos, tenéis que

    37:38

    seguirlo. Juan Romero, eh, desde aquí si me escucha también un abrazo.

    Eh, vale, seguimos. Habla del desempleo al 99%.

    Bueno, luego hace un matiz de automatización al 60%, pero bueno,

    37:55

    sin entrar en la barbaridad del 99%, que luego dice que evidentemente aunque tengamos esa capacidad luego no se va a desarrollar, bla bla bla bla bla bla bla. Bueno, podemos poner el futuro de la del ser humano no es el trabajo o al menos el trabajo tal y como lo conocemos,

    38:12

    ¿vale? Eso yo creo que lo firmamos todos.

    Pero esos niveles de aceleración de desempleo es cierto que no serán a los niveles que él quiere marcar, pero ya tendría que estar encima de la mesa de todos los gobiernos y estados. ¿Cómo

    38:28

    se va a solucionar eso? La única solución posible, renta básica universal, que por cierto eh vi sobre esto unas declaraciones, voy a buscarlas, pero es que no sé que además en el evento que hice en Madrid, en ICEA

    38:44

    y barra a ver eh h ver eh h cómo se llama la chica esta de eh de Podemos, si no me acuerdo yo.

    39:00

    Ah, sí, esta guion Belarra. Vale, vale.

    A ver si encuentro eh eh porque hace unas declaraciones que yo flipé. Eh, sí, este aquí

    39:19

    del 50% de los beneficios. Buah, no.

    A ver, vamos a ver. Belarra.

    Eh, bueno, a ver, Belarra eh hace unas declaraciones, pero son recientes.

    39:36

    Bueno, habla de ya hace tiempo pedía eh un 50% de impuestos a a las eh grandes corporaciones.

    39:52

    31 ya de los políticos, sobre todo más en España siendo un país socialista, nos guste o no, es además unas declaraciones, las buscaré porque hice referencia a ellas porque las vi en televisión creo que fueron y me quedé loco. Oye, los beneficios que den las bigtex a

    40:09

    pagar, a repartir y a vivir todos de madre. Bueno, ese es ese es el plan, ¿eh?

    No hay otro plan. El problema es qué sociedad se genera partida.

    Y esta lo dice con con perdón de la palabra, con todo su papo y se queda más ancha que Pancha. Vamos.

    Y está la la

    40:26

    tía ahí cobrando de política. Pero bueno, ahí es lo que tenemos en este país.

    Lo que va a ocurrir con la inteligencia artificial e y está ocurriendo va a ser una bomba en nuestro país y un teatro y una película de Berlanga o de o de

    40:43

    eh, ¿cómo se llama este? El de al borde de un ataque de mujeres al borde de un ataque nervio.

    Va a ser una auténtica locura. Todo será automatizado, dice.

    Todo será automatizado, como el libro de mi amigo

    40:58

    David Bancos, automatiza o serás automatizado. Y ahí va a ver, como también dice Roman Jampolski, pues una disonancia cognitiva importante de la gente, ¿no?

    Ya veis cómo está el tema por ahí. Pues imaginad lo que puede

    41:17

    lo que puede pasar, ¿no? Eh eh un segundo, espera un segund un segundito, chicos.

    Damos tanto tiempo aquí.

    41:35

    [Música] Vale, vale, seguimos. hablan de la conducción autónoma, ¿no?, y el impacto que que va a tener, ¿no?

    Evidentemente hablan como una de las primeras profesiones, ¿no?, que que da más trabajo en el mundo o si no la

    41:50

    primera. Pero en definitiva, lo que tenemos que entender es que, bueno, ¿qué hacemos?

    Prohibimos la conducción autónoma. No vamos a entender que la movilidad va a ser eh el servicio y que seguro que no tendremos vehículos, como dice el presentador, yo llamo desde un

    42:06

    AP. Vamos a ese tipo de sociedad, que además va a ser una sociedad mucho más fácilmente controlable.

    Lo asumimos o generamos una alternativa que nos haga más felices. Pero claro, eh si esa alternativa que nos hace más felices no tiene la masa crítica

    42:22

    suficiente, pues se impondrá el gran poder de los grandes capitales que están interesados o alineados. Eso sí, eso sí que consiguen una alineación pues con el control de la humanidad.

    Y como bien dice Jampovski, no hay plan B.

    42:37

    Pero, ¿qué hacemos? ¿Qué hacemos entonces?

    Bueno, pues reimaginar, repensar el mundo. Ya, pero esto entonces, bueno, ya, pero el mono gritando.

    Bueno, pues y

    42:53

    ¿qué quieres hacer? Las guerras budellianas de la IA en España o en el mundo que van a seguir unos en China no las van a hacer.

    En China van a hacer a IS lo que sea.

    43:13

    Y habla sobre el propósito y eso es lo que tenemos que hablar. ¿Cuál es el propósito de de todo este desarrollo, pero no de desarrollo que va a ser inevitable, sino qué eh creamos como propósito para toda esta nueva realidad?

    43:29

    Claro, si no tenemos ahora un propósito y vivimos sin propósito y ya somos automatizados y nos comportamos como autómatas, ¿qué creemos que nos va a esperar? Como dice aquí Jos Newton, es que eh nos

    43:44

    planteamos prohibir la conducción autónoma. En serio, de verdad, eh o enlentecerla de verdad, no vamos a enlentecerla 10 años porque en serio es que si la humanidad está ese nivel, tenemos un problema pero grave.

    Lo que

    44:00

    buscamos no es la solución o la evolución. Lo que buscamos es que las cosas no cambien y buscamos nuestra seguridad.

    Buscamos ser el mono en la cueva, no salir de la cueva. Entonces, hay un problema.

    Yo si fuera el que ha creado la simulación penalizaría. Ley selección natural.

    Esto

    44:16

    es fuera. Toma por culo.

    Ya lo dice y lo cuestiona Iluskever. Oye, puede ser que la selección natural priorice a las inteligencias artificiales antes que a nosotros, que es la selección natural.

    Bueno, eso es otro otro debate, pero ahí os dejo

    44:32

    ese hilo fractal para que podáis eh ver qué pensá. Eh, sí, hacen, dicen una cosa que es bueno en todos los programas eh en otro en otro programa también lo dijimos, ¿no?

    Eh, ¿qué hace con la gente

    44:49

    que le demos una renta básica, ¿no? Que bueno, está faltando el tiempo para que salgan aquí los defensores en el chat de la renta básica.

    ¿Qué hacemos con la gente que con el tiempo? ¿Qué hace la gente con el tiempo libre?

    Imaginad a toda la gente que no tenga que trabajar. ¿Qué hacemos?

    ¿Qué hace la

    45:04

    gente? Tendremos que crear nuevos retos, ¿no?

    Tendremos que crear cosas hacer en común como especie, como individuos. Eh, no, pues yo me pondría a a pintar en en serio.

    Vosotros habéis salido a la calle, ¿no? Vais a dejar eh esa esa esos

    45:22

    niveles de conciencia eh con tiempo libre. En serio, vamos al caos, entonces vamos a la distopía.

    No, van a dedicarse a hacer el bien. Sí, sí, sí, lo vemos.

    Y lo vemos. ¿No veis lo que está todo el día en la calle?

    Lo que hace el bien. Seres de luz.

    Ya.

    45:42

    ¿Qué tipo de sociedad vamos a crear? Preagi asi posti asi.

    Ahora mismo lo que parece que pretenden es universo 25. Solo les importa frenar y controlar el desarrollo de la ASI para que le veamos peligroso, pero en el

    45:57

    fondo lo que nos quieren es como ratas en universo 25. Y si cada uno de nosotros es una superinteligencia, bueno, eso lo que dice Meta, que es un poco falaz porque que lo diga Meta el amigo Zuckerberg tiene ¿no?

    Pero bueno, universo 25 o 26 o 27, ratas felices que

    46:14

    al final, bueno, como dice luego él, ¿no? ¿Para qué voy a tener hijos?

    ¿Para qué voy a hacer esto? ¿Para qué nada?

    todas las estructuras esenciales del ser humano a tomar por culo. Claro, no hay una narrativa, de eso va

    46:30

    humano X por y es arriesgado para mí porque hablar sobre eso es casi vamos eh de Mesías. En definitiva, no sabemos lo que va a

    46:45

    pasar. No, no está claro.

    Habla de Dun, de las guerras buderianas, del jihad buderiano. Bueno, habla de esas dos posibilidades, ¿no?, que siempre se ha puesto en la ciencia ficción y es eh las guerras

    47:04

    buderianas de de Dun a en ese sentido de las inteligencias artificiales se prohíben o se destruyen y ya no hay más. Por eso, cuando veis las películas de Dun, pues no hay no hay esa tecnología.

    Y eh Star Wars, ¿no?, que son como

    47:20

    robots, eh, pero son torpes, no se ve una superinteligencia en ningún sitio. Bueno, hay películas que sí.

    El el aquí es donde A ver, eh, y yo que soy perro viejo me doy cuenta, no hace falta ser viejo para darse cuenta, pero bueno,

    47:37

    siendo perro viejo te da un grado, ¿eh? Él nombra estas dos posibilidades, pero que no hay más, no hay más posibilidades que estas dos.

    Hay muchísimas en positivo y en negativo, porque no las dice, no podemos crear una alternativa

    47:53

    distinta a Dun o a la de Star Wars. Las hay.

    habla sobre el tema de su bulldog, ¿no? Bueno, esto de bulldog es como lo de las mascotas de Ilia Suskever, ¿no?

    Que las

    48:10

    agis nos mirarán a nosotros como nosotros miramos a nuestras mascotas. Por lo mismo, lo que entiende un perro de nosotros es lo que la nosotros entenderemos de las superinteligencias.

    Es una analogía que se explica muy bien. No te acabas de poner en ese lugar, pues

    48:26

    es porque eres más mono y tonto de lo que pareces. ¿Que te crees que tienes una capacidad ilimitada, que ves el universo con los ceros y unos o con los quantum y los estados y eses capaz de leerlos?

    48:47

    George Newton dice, "En los colegios ya han eliminado la filosofía. Sin la guía del conocimiento del hombre, las nuevas generaciones están solas y perdidas.

    Unido al acceso a la inteligencia artificial va a ser explosivo." Lo suscribo. Es lo que quieren, destruir el ser

    49:02

    humano. Lo están consiguiendo.

    Lo vimos en la pandemia, que no es que lo están consiguiendo, es que lo lo habían conseguido ya. Solo había que ver hasta qué nivel de destrucción eh eh habían conseguido en las mentes

    49:17

    humanas. La pandemia iba a conseguir, iba a sacar lo mejor de nosotros.

    Perdona. Pues ya, bueno, ya lo visteis, ¿no?

    Habla de la habla poco aquí del humano aumentado. Es una posibilidad, ¿no?, de Neuralink.

    49:33

    Aquí no habla nada de eso. Fijaos que como es una solución muy factible, de eso no habrá nada.

    Os dais cuenta como hay un interés que lo que dice es real. Yo no digo que no haya que preocuparse por todo esto,

    49:50

    pero nunca se enfocan en en las soluciones, solo en el problema, porque es es de lo que vive eh este hombre comprando bitcoins, que no digo que sea malo comprar bitcoins, digo que al final no buscan una solución distinta,

    50:06

    buscan al final vivir de eh su propósito es el miedo al final. No hay esperanza.

    La trajo un carpintero, pero claro, tú no la vas a traer, obviamente

    50:21

    la trajo al hijo de un carpintero. Sí.

    Habla de las mentes, la capacidad de eh hacer el uploadat. Pero bueno, aquí cuidado con esto.

    Cuando hagamos la cuando seamos capaces de hacer una

    50:36

    radiografía o grabar o hacer un backup de la mente, si la la la haríamos del cerebro de la parte local, de la no. Por lo tanto, no estamos replicando al ser humano, algo pierde.

    Estaríamos recreando un NPC, un NPC,

    50:52

    porque ahí vamos a lo mismo. Hay una realidad no local, entonces hay unas variables que no están, hay un proceso que no está.

    ¿Cómo lo replicas? No es que sería lo mismo, ¿no?

    Bueno, lo mismo, lo mismo, ¿no? Porque tú no sabes lo que hay ahí.

    Ya, pero yo veo y es lo mismo. Ya, pero el

    51:08

    conductismo te lleva al NPC. El NPC también no sabe si es humano o no, pero es un NPC, ¿ya?

    Ni profundiza en eso. En definitiva, él habla de que el ser humano, esto es un concepto que es eh muy muy interesante, pero hay que tener mucho cuidado.

    El ser humano no puede

    51:24

    ser un software porque hay una realidad no local. Podremos replicar esa esa conexión o establecerla de tal manera que seamos un software eh eh omnis omnisciente, es decir, que estemos integrados casi en la misma realidad, que no tengamos un cuerpo, un

    51:40

    embodiment, sino seamos información con el universo. Quizás qué es lo que somos ya.

    Quizás eso es lo que sea el alma, ¿no? O el espíritu.

    eh que es muchas veces cuando hablamos eh utilizamos este tipo de

    51:56

    utilizamos este tipo de vocabulario eh se entronga muy bien con pues el con el el el relato religioso, espiritual, como quieráis llamarlo. En definitiva, más allá del humano, ¿no?

    Vamos a ir más allá de las capacidades

    52:12

    actuales humanas. Más allá del humano, ¿no?

    Más allá de la del humano actual, humano X. Ah, es que el humano X no es humano.

    Obviamente, obviamente sí. Quizá es más humano porque está más cerca de su propósito y su esencia es la misma que

    52:28

    el humano actual o el de la cueva. 2030.

    Robots, habla de robots físicos, robots eh

    52:43

    idénticos a nosotros o no, pero que bueno, ya nos pueda sustituir aunque seamos fontaneros. electricista o lo que haga falta.

    2045 no es capaz de imaginarlo, pero habla de Ryan Kurg. Aquí aquí tira ya de cliché.

    Es decir, este Dios es un ingeniero que vive del miedo, pero eh de de Mesías o

    52:59

    de visionario o de profeta tiene poco. Eh y poco se poco se centra en la solución más bien en el problema.

    Y si hay problema, pues compro bitcoins. Luego si queréis reflexiono porque estoy diciendo o atacando parece un poco ahí a ese tema.

    53:17

    En definitiva, que todos eh parece ser que en 2045 vamos a ser más tontos, pero entiendo que como podrá ver la aumentación casi será otra especie y no sé si estarán los tontos y los aumentados y los aumentados pasarán a ser otra especie y los tontos pues desaparecerán.

    53:35

    No habrá nuevos trabajos, eso sí que estoy con él. Esto no es una nueva revolución industrial.

    Basta ya de clickbait, basta ya de oportunistas, basta ya de este ¿Qué dice el hombre este? un dislike como muy ganado.

    ¿Qué dice? Eh,

    54:00

    bueno, hay un montón de de comentarios eh que son eh que son de bots, e incluso están hechos con inteligencia artificial y no se entiende ni lo que dicen y son bots un montón, un montón. Ya al principio los

    54:16

    tomaban en serio, pero luego ya no hago ni caso. Sí que habla de una cosa que me ha gustado mucho esto, como lo ha definido, porque es así, que evidentemente la superinteligencia es una meta solución, no es una herramienta.

    54:32

    No estamos creando una mejor herramienta, estamos creando una meta solución y eso es lo que hace que tenga impacto porque nos sustituye a nosotros. y el empleo de esta palabra de meta, que no la compañía del señor eh Zuk.

    54:49

    Eh, pues eso, aquí sí que me me ha gustado, ¿no? Dice una cosa que también me ha gustado mucho, que es cuando hace la analogía de la muerte.

    Oye, eh, nosotros nos vamos a a morir,

    55:05

    pero no estamos todo el día pensando en la muerte. Bueno, hay gente que sí que integra más ese pensamiento, ¿no?

    Como Steve Jobes vive cada día como si fuera el último, pero es verdad que con la GA si podría pasar y no estamos todo el día pensando de que, oye, cuando llegue esto nos va a sustituir, no tenemos esa capacidad de

    55:20

    abstracción, pero bueno, podemos tener también la toma de conciencia, intentar integrar y actuar en consecuencia, ¿no? Pero sí es verdad que el ser humano tiene la capacidad de ver una cosa que le va la vida y mañana seguir igual con su algoritmo en modo NPC.

    55:39

    A ver, aquí esto que no lo acabo de tender. Sobre solución está igual eh

    55:56

    la seguridad de la IA, la EIFT, pues sí, es algo importante, ¿no? Es algo realmente importante.

    Yo no digo que no lo sea. Hemos dedicado programas y bueno, ahí tenéis el análisis que mañana hablaré de él, ¿no?

    Del Future of

    56:13

    Life Institute, del amigo Max Marc, como no, otro terrorista del pánico, ¿no? Que sí que bueno, pero bueno, este este supera todos los límites ya.

    Bueno, luego está Jutkowski, que es no, ese es el rey. Jutkowski es el rey ahora con el nuevo libro.

    No sé si me lo tendré que leer.

    56:30

    Habla sobre que si podemos crear una superinteligencia que sea como, a ver, que en definitiva podamos apagarla, ¿no? Oye, si al final la superinteligencia es un software o está en un servidor, se apaga y punto.

    Dice, "Hombre, a esto no es así. Si es un sistema

    56:46

    descentralizado, si he hecho varas copias, un virus puedes hacer o apagarlo. Es decir, la naturaleza de esto no va a ser tan fácil como el botón rojo que hablaba Samalman, pero bueno.

    Samalman, que por cierto, al amigo Samalman, que luego hablaremos de lo que dice Jamposky, pues lo pone, vamos, eh,

    57:04

    en el lugar que merece. Vamos, poco habla de Ilia, no sé por qué.

    Siempre es en negativo, nunca es, oye, cuidado este, pero de Jan Lecoun, de Mitel, de Ilia, no, no, no, todo es el el Hinton. Estos son un grupito del terror.

    57:20

    No digo que no tengan razón en en algunas o muchas cosas, pero teniendo razón en muchas cosas, lo derivamos siempre en la narrativa del miedo y del terror, que funciona mucho y los medievos les encanta, hacen fiestas con ello.

    57:37

    En definitiva, el desarrollo de la inteligencia artificial como el de la conducción autónoma, robótica y mil cosas más, señores, es inevitable. No se va a parar, ni siquiera se va a cuestionar el desarrollo de la misma.

    Quizá pueda

    57:53

    derivar en guerras, no digo que no. Y aquí es cierto que todo esto eh tanto la aceleración como quizá el final o un punto de inflexión importante venga a partir de una guerra civilizatoria que está ocurriendo, que es entre Estados Unidos

    58:10

    y China. Y toda esta supremacía tecnológica y supremacía en la inteligencia artificial se va a llevar al tema militar.

    lo sabéis, ha hecho un desfile China, eh, Israel, las guerras actuales que tenemos, Estados Unidos,

    58:26

    se lleva no a potenciar al ser humano y a exterminarlo, se lleva a potenciar la guerra humana. Eh, cuando veamos a los robots atacar, ¿quién los ha creado?

    ¿Estarán esos robots alineados para la

    58:41

    guerra? Por supuesto, porque esta gente directamente, más que cuestionar todo esto, no cuestionan los gobiernos y la inversión militar, que es el mal.

    ¿Por qué no abogan una

    58:58

    illa para la paz como hace Laro Ibar? Que es muy difícil, pero veremos qué hacemos con con ese tema.

    Por cierto, hoy he escrito a Larso, a ver, me ha contestado. No, pues no me ha contestado porque está bastante perdido, ¿no?

    No pasó nada con él, pero

    59:16

    eh a ver qué dice Sergio Álvarez Peláez. No puedes apagar la A una vez que tus instalaciones industriales son dependientes de ella.

    Bueno, esa es una cosa, es es otra otra apreciación inteligente, hombre. A ver si yo tengo todo.

    A ver, él dice de las narrow que

    59:31

    oye que no las vamos a quitar porque moriría muchísima gente. De las narrow.

    Hm. De las narrow.

    Pero ahora resulta que tú haces una superinteligencia y no, hombre, la vamos a pagar, pero si si el mundo giraría alrededor de ellas,

    59:48

    ¿qué tendríamos que hacer? un mundo preparado para volver a la cueva.

    Pero es lo que pasa ahora también con la luz, con todo. Es decir, pero en serio, lo que hay que hacer es construir un mundo alrededor de ellas, un mundo mejor.

    Pero claro, esta gente no puede eh crear

    00:04

    ese mundo ni imaginarlo. Fijaos que cuando él tiene que imaginar algo positivo, no lo hace.

    No digo que lo que me ha gustado mucho, muchas cosas que hice, muchas reflexiones y las considero necesarias, pero siempre negativo, como Bangal, siempre negativo, nunca positivo. Bueno, tío, pero sí que es verdad.

    00:19

    Si es que el tío no no propone nada y aunque sea imposible alinear la superinteligencia, se se va a llegar a ese desarrollo y en muy poco tiempo. Es que es inevitable.

    Eh,

    00:38

    ¿y el el tema militar, ¿cuántos muertos provoca? Obviamente no hablamos de una guerra, evidentemente entre de proyecto civilizatorio entre Estados Unidos y China.

    China lo tiene, Estados Unidos no lo tiene. Europa es el

    00:55

    puro desierto intelectual. Ojalá hubiera, que es lo que necesita Europa, un nuevo Renacimiento intelectual de talento, eh, y y hubiese realmente una revolución que que pusiera Europa otra vez en el lugar de la historia que se merece, ¿no?

    Pero con

    01:12

    esta gente, con la Wonderlion y las otras lacas y compañía con lo que tenemos aquí, bueno, y hablo general, no hablo ya de colores, es es perpéntico. [Música]

    01:28

    Una startup puede desarrollar una superinteligencia, hombre, hoy hoy día no, no, pero si si como dice él, en un futuro con un portátil lo vamos a poder desarrollar, ¿dónde va cómo vamos a poder limitar eso? Sí, si limitamos eh,

    01:44

    ¿qué hace cada persona, no, eso es lo que se quiere? Oye, yo ya tengo la superinteligencia, ahora el ser humano que se dedique a plantar tomates.

    Eso es lo que quiere, ¿no? Vamos a tener nuevos retos humanos, vamos a crear una nueva humanidad, vamos, no, no.

    Vosotros, vosotros sois humanos. Nosotros mandamos

    01:59

    vosotros eh a ser electricistas, plantar tomates hasta que venga el robot. Luego os daremos una renta básica y no molestéis, ¿no?

    A ver, una noticia aquí de Samman en la vanguardia. A ver qué dice

    02:16

    Samalman, "No he tenido una buena noche desde que sacamos chajepet." Bueno, este hombre es un un esperpento. Este hombre este este Samman, el amigo Sama, el el de la bomber de Asilomar.

    Es tremendo. Bueno, hay bastante gente para ser un sábado.

    Ahí tenemos la gente. Venga,

    02:32

    vamos a darle. dice que nunca ha sido bueno, que lo que se busca es tener el planeta monitorizado, no las sociedades, la gente, sino ya el planeta entero y evidentemente cada cosa que hagas, incluido los pensamientos, ¿no?

    Que por cierto, hay una noticia que es flipante

    02:51

    sobre que se le ha pasado a David Peleta, que por cierto pronto estará con nosotros David Peleta, si no pasa nada concretamente el día 30. Un segundo, eh, bueno, es una noticia que la voy a

    03:06

    poner porque es flipante, ¿no? Eh, haré un haré un programa de de los soldados aumentados, de lo perdón, de los soldados aumentados, no, de los sooldados.

    Bueno, es lo mismo, pero vamos, pero pero os voy a poner la noticia porque es flipante. Es flipante.

    03:25

    Es flipante. Un segundo, vamos a poner aquí.

    China acusada de robar datos del cerebro de Jannick Sinner y de jugadores del

    03:43

    Manchester City en un complot militar. Eh, el informe afirma que una empresa tecnológica respaldada por China accedió a datos neuronales de los mejores

    03:59

    atletas, lo que generó temores de investigaciones sobreados. Bueno, no tiene cara de su sooldado, pero ¿qué os parece la noticia?

    Brutal, ¿eh? Pero claro, hay que alinear la

    04:14

    superinteligencia. Claro.

    Eh, habla del riesgo. Es bueno que nunca ha sido tan fácil.

    Vimos un momento en que nunca ha sido tan fácil eh, destruir el mundo,

    04:30

    que vivimos un riesgo existencial real, pero bueno, es culpa de la IA, de la II o de la ASI que va a venir, que en el mundo hay cultos, psicópatas, terroristas, asesinos. Bueno, el mal, el mal existe, eso es uno de los grandes problemas del ser humano, el el obiar

    04:46

    que existe el mal y los NPCs. Eso también no sabemos, en definitiva, cómo funciona una inteligencia artificial y esto me ha gustado porque obviamente si supieran y no se sabe, no habrían ni todo este tipo de tests eh de muchos tipos que hacen

    05:03

    las grandes compañías a sus modelos, ¿no? sería como mucho más sencillo y bueno, tienen que pasar test sobre los propios modelos que hacen porque evidentemente no saben ni controlan ni saben con esa actitud cómo se va a comportar ni lo que han producido, ¿no?

    Dice George Newton. Bueno, a ver, aquí

    05:20

    Alberto Ceni, los profetas de la del Apocais, ¿no? del Apocalipsis, pero de la IA, ¿no?

    Europa es una colonia militarmente ocupada por los vencedores de la Segunda Guerra Mundial. Es imposible ningún renacimiento si que los amos caigan antes.

    05:35

    Eso es verdad. Eh, dice que lo que estamos haciendo con la inteligencia artificial a nivel de desarrollo ahora es crear una planta alienígena.

    Es decir, bueno, vemos a la planta que es alienígena, vemos cómo

    05:53

    crece, pero no sabemos exactamente cómo va a crecer, cuántas hojas cómo van a ser, etcétera. Es un buen ejemplo.

    Los modelos de ellas son como estamos creándolos como si fueran plantas alígena. Bueno, eso da muchos clickbaits.

    Eso da muchos clickbait. Bueno, vamos.

    06:09

    Fijaos la cantidad. Bueno, la verdad es que la charla da la de que a cuatro forios aún de anotación.

    La madre que los hizo. Venga, vamos.

    habla de de Ilia Suskever, nombra poco del caso de de se super intelligence.

    06:25

    Oye, dice que sabe hacerlo. Ah, eso lo hace para sacar pasta.

    Bueno, es Ilia, ¿no? Dices de de Sama que es inteligente y de Ilia es el creador de CHGPT o uno de ellos.

    Aquí no quiere entrar.

    06:40

    Hm. Aquí no quieres entrar.

    Métete con Ilia ahí que tío. Bueno, esperemos a ver qué hace.

    No, pero está trabajando en ello. El conflicto de Openi, el Samagate vino por eso o bueno, Phil de Achi o qué vio que vio

    06:58

    il Susqueda, ¿no? Openai, el conflicto, ¿no?, de Samagate con el Sefity habla de Samman y de que no es la persona correcta para eh llevar eh al desarrollo en el mundo una inteligencia artificial, una ASI,

    07:14

    porque pone la seguridad. En segundo lugar, habla además la compañía que crea World Coin como una compañía que debe dar soporte a esa renta básica universal y que en definitiva Samma lo que busca es el dominio mundial y controlar el

    07:29

    universo. Bueno, no sé si tanto, pero sí, este tío no tiene límites.

    Eso sí, eso sí que se se le ve. habla de qué ocurrirá en

    07:45

    bueno. Bueno, en una de dos o estamos exterminados y esto es está todo destruido o no somos capaces de imaginar el futuro que acontecerá.

    Eso es un poco también ese tipo de

    08:01

    ejercicio mental es el que llevo a cabo en Human X. A ver qué dice Jos Newton.

    Dice del armamento nuclear dice ese es el mayor riesgo y capacidad de aniquilar la vida en el planeta. Pero el miedo es la IA.

    08:17

    Bueno, yo creo que sí que es cierto a ver que la I peligrosa que el armamento nuclear, ¿vale? Pero bueno, ahí está el armamento nuclear.

    No se habla de él. ¿Por qué no dice Jukowski este Jampovski este sobre el armamento nuclear?

    Ah, no, porque eso interesa desviarlo hacia la No, ya, ya, ya. Se se ve, se ve, se te

    08:36

    ve el plumero. Se ve el plumero.

    A ver, un segundín que quiero ver que sigue en directo. Si estamos en TikTok en directo.

    Esto es una maravilla, tío. Esto es una maravilla que estemos por aquí, ¿no?

    Ah, 149 likes lo han puesta.

    08:55

    Pues bien. Bueno, ahí estamos en TikTok también.

    Eh, habla del amigo Joffre Hinton. Bueno, habla de sus amigos del culto del apocalipsis.

    Joffrey Hinton, sojio.

    09:11

    Bueno, yo diría que no todos piensan como él. Podría haber citado a otros, ¿no?

    Mitel, Jan Lecun, Ilian Suskever, Jurgen Smith Huber, Denis Hasabis, que este está un poco ahí en medio, pero

    09:28

    hay muchos más en un sentido y en el otro. Entonces, los absolutismos, amigo Jampolski, ni los de los ni los del Bitcoin te los compra.

    Nunca hablas de esperanza. Nunca habla de esperanza.

    No,

    09:45

    no hay esperanza, no hay alternativa. Habla de Openii, del equipo de alineamiento que creó, de superalineamiento, liderado porus kever,

    10:01

    bueno, lo que duró. Bueno, pero eso es una anécdota clickbait.

    poco dice de lo que bueno, habla de que es una locura, eh, que la hm eh que la inteligencia artificial eh

    10:17

    supervise o alinee una IE, no, pero será el único camino. Ahora, ahora comentaré una cosa, un segundín en programa.

    Vale. Eh,

    10:33

    es imposible alinear una Para mí la solución es que la I alinee la IA. Bueno, es que eso es una barbaridad.

    Bueno, a ver, es la única forma, si supera a lo humano, tenemos que utilizar la ella

    10:49

    para derrotarla en caso de que se le vaya la pinza. No hay más.

    Entonces, no es una locura. Lo que quizás es que falte metodología y cosas eh al respecto.

    Eh, yo ahí quería hacer un una cosa al bueno, lo que pasa

    11:05

    es que es bueno, eh al final no vivo del aire, tendré que y luego las ayudas que hacéis son mínimas. Vamos, no me daría ni bueno, no para vivir ni mendigar.

    Vamos, yo creo h yo a veces digo, hm, vamos eh eh hago esto por pasión, porque si fuera por la Pero bueno, tenemos éxito y

    11:22

    tenemos reconocimiento y sé que os gusta todo lo que hacemos, pero es verdad que no se traduce en en poca ayuda, poca ayuda, pero bueno, la que hagáis bienvenida y la que no, pues no pasa nada. El siempre que estéis ahí y nos interesa mucho el feedback y todo lo que

    11:37

    hagáis, [Música] ¿vale? Eh, pa pa habla de si es imposible, que lo que intenta es confirmar que es imposible el alineamiento para de alguna forma que

    11:53

    la gente entienda que es un peligro el desarrollo y que es una bueno, una misión suicida el desarrollar la superinteligencia. Es lo que quiere, en definitiva, es parar el desarrollo de la y de ASI.

    Eso lo dice al final, pero bueno, es una cosa que ya llega tarde,

    12:08

    ¿no? Eh, dice que la gente debe protestar, que debe movilizarse como en España con los panfletitos.

    La gente debe protestar de una forma pacífica, legal. Como habéis comentado, aquí he puesto la noticia, la huelga de

    12:23

    hambre en Antropic, en las oficinas de Antropic, habla de de bueno, de lo que es importante en definitiva, que es muy importante muchas cosas, pero el peligro que existencial que podemos tener al

    12:40

    respecto, pues es lo que tenemos que priorizar. Bueno, bien.

    Y aquí en una segunda casi parte del programa entra la teoría de la simulación, ¿no? Y es obvio, ¿no?

    Aquí hay una reflexión que es es yo sí que creo que estamos en una simulación, chicos. Como dice

    12:57

    Fernández la Z, si podemos simular la realidad, estamos en una simulación, es la mayor prueba. Queríamos escribir un libro juntos, lo empezamos y se paró, pero no por él ni por mí.

    Es que se hace difícil tanta cosa al final.

    13:13

    Pero sí, bueno, yo estoy en manifiesto X con Larso y escribiendo el mío propio man X y bueno, bien, habla que si la inteligencia artificial llega a niveles superhumanos con con la ASI y la realidad virtual eh consigue

    13:28

    hacer eh indiferenciable la realidad de lo virtual, que obviamente lo que vamos a poder es crear mundos iguales al nuestro. simular nuestro mundo.

    Por lo tanto, lo

    13:44

    que haríamos es ejecutar múltiples instancias de el mundo, ¿no? De acuerdo.

    1000 millones de simulaciones. ¿Cuál sería el propósito de esa simulación o simulaciones?

    Bueno, él habla que podría ser por investigación, que podría ser por ocio, que podría ser

    14:01

    por optimización. Quizá estemos aquí porque ha pasado algo y quieren que encontremos una solución.

    Quizás sea que el ser humano no sea destruido, que el ser humano evolucione para encontrar una solución a algo que ha sucedido o sucederá.

    14:18

    [Música] Yo creo que es otro propósito. Yo creo el propósito es eh evidentemente la evolución del ser humano al punto omega, que es el encuentro con Dios o con la verdad, ¿vale?

    Es decir, descubrir

    14:35

    eh la verdad de la simulación. salir de ella, acabar el juego.

    En definitiva, ese para mí es el propósito. Ni la vida eterna que no es aquí, que esto puede ser un juego de de 10 segundos en la otra realidad, porque habla mucho de la subjetividad del tiempo, ¿no?

    14:55

    Eh, sí, estamos en una simulación. Yo, chicos, sí creo que estemos en una simulación.

    habla de la temporalidad del tiempo y habla del tema de las religiones, que evidentemente la superinteligencia sería como ser superior creador, bueno, que la asi sería como eh lo que gestiona la

    15:10

    realidad, pero alguien la ha creado, que ese sería ese Dios, que son cosas distintas, ¿no? La simulación no es Dios, es el creador de la simulación, eh, que cada vez más desde la ciencia se atestigua que es así.

    Y eso es cierto.

    15:27

    Yo hablaría de casi una confirmación. Eh, ¿qué supone que vivamos en una simulación?

    Bueno, hm, una preocupación por lo que hay fuera, ¿no? Hay mucha gente que creemos una trascendencia y no hace falta que

    15:43

    confirmar la teoría de la simulación, ¿no? Pero que bueno, al final simulación, vida, vida después de la vida y la vida es una simulación o o de otra naturaleza, da igual.

    Eh, estamos hablando de lo mismo, ¿no? Eh, habla aquí sobre un cuestionamiento muy

    15:59

    típico, por eso un poco la categoría también intelectual de este de este de este me parece que es bien, pero me parece un un personaje que incide en la herida, pero le gusta la herida. ¿Entendéis lo que quiero decir?

    16:15

    Cuestionándose a Dios por la existencia del bien y el mal. Lo dejo ahí porque tengo que entrar a eso.

    Eh, desde aquí descanso en paz, Charlie Kek o como se pronuncie. Vamos, alineado totalmente con con las

    16:31

    cosas, muchas de las cosas que decía, no digo todas, pero sí muchas. Y evidentemente un asesinato bil cruel de de una persona que debería estar entre nosotros.

    Eh, dice que la vida quizá no es tan

    16:46

    importante, que somos muy egoístas, todo esto todo esto el tema de la simulación, que bueno, eh, la gente religiosa no tiene ese problema, ¿no? Es decir, oye, la gente que una trascendencia no tiene ese problema.

    Se nota que el presentador tiene el ego, bueno, se se ve de buen tipo, ¿no? Y hace sus reflexiones, pero

    17:01

    bueno, las podía haber tenido antes, ¿no? Es mayorcito, ya, ¿no?

    A estas alturas estamos. tienes que conocer a Jampolski para hacerte esas reflexiones.

    Está un poquito pensando más en la en la crema que te pones en la cara y salir guapo en el podcast que que reflexionar

    17:17

    sobre tu existencia humana. Pero bueno, no es criticable, estarás en tu proceso, no te preocupes.

    Eh, hace preguntas sobre podemos escapar a la a la simulación, lo que supone la muerte. Bueno, esto de hablar de la inmortalidad, no estamos aquí para ser inmortales en lo local.

    Si os dijeran a

    17:33

    vosotros que hay una vida después de la muerte, ¿no os querríais de alguna manera morir o no ser inmortales? ¿Qué querríais estar atrapados en el videojuego?

    Eso es el infierno. Quizá quieran eso, atraparnos en el en la simulación.

    17:51

    Eh, habla del Bitcoin, habla del hackeo de a través de la computación cuántica, de NPCs, de la vinculación entre religión y simulación. habla así que quizá me gusta mucho esto por parte del entrevistado, del

    18:07

    entrevistador dice que quizá Dios nos ha dejado una pista, ¿no? Y sea la intuición.

    Esto, estoy de acuerdo contigo. Así es.

    Dios o nosotros mismos hemos venido a este esta simulación, a este juego, pero con una pista que nos guía, que es nuestro nuestra intuición conectada a

    18:24

    nuestra alma. Eh, ah, bueno, lo de los registros.

    Bueno, dice, "No, es que nosotros no tenemos todos los registros históricos."

    18:41

    Bueno, podríamos analizar la figura de Jesús, para mí la más importante la historia de la humanidad y qué registros históricos existen que evidencian su existencia. Sé que eso va a causar, pero mucha polémica.

    Pero bueno, vamos a a ir con Piñeiro, un historiador eh

    18:58

    de nuestro país, referencia en eso sobre la existencia. No hablo la existencia de Jesús, la interpretación es otra cosa, pero sobre lo que se dice y su existencia, ¿no?

    Esto que dice argumentando qué se

    19:14

    van a tener registros históricos. Bueno, este tío se nota cuando eh dispara como lcky look y bueno, hay cosas que en las que sí que sabe y en las que no, pues queda bastante desdibujado.

    Nos importa la verdad en esta

    19:30

    simulación, obviamente no no podemos eh querer ocultarnos en la simulación a través del miedo, ¿no? Eh, dice que le atacan mucho diciendo que está loco.

    Pues sí, pues imagínate a nosotros, eh, ese balance entre

    19:46

    seguridad y control habla que tenían que pedir permiso para el desarrollo de la superinteligencia. Pero, ¿quién pide permiso?

    ¿Cuándo la evolución ha pedido permiso? Si la evolución es es dirigida muchas veces por un grupo muy pequeño.

    Si

    20:01

    pidiéramos permiso, estaríamos aún en la cueva en Tabarrabos. habla que él pulsaría un botón para que la narrow inteligencia artificial débil sí que continuase, pero la Agio.

    Él no quiere el desarrollo de la AGI, de la Asi, pero el Bitcoin sí.

    20:16

    Bueno, tú lo que quieres es el Monopoli. Te lo está pasando bien, ¿no?

    Ay, Jampolski, que se te ve el plumero. Me cago en la madre.

    dice que ya tenemos casi un ag y yo estoy de acuerdo con él en eso que eh y

    20:32

    luego habla de la automatización al 60% y bueno, poca cosa más, casi 111 anotaciones que no quiero saber más de ellas.

    20:47

    Conclusión, ¿qué decimos, amigos? Mañana os voy a traer eh bueno, vamos a analizar un documento del Meet sobre el desarrollo de la AGI, cuál es el plan, a ver qué dicen y luego traeré algunas cosas de programas que hemos hecho y alguna

    21:04

    documentación con preguntas que me estáis haciendo en el Discord, que me podéis hacer en LinkedIn o en redes sociales. 3 horas y media me tenéis aquí un sábado.

    ¿Me podríais eh eh enviar un vizum, no? Porque es un pier de cena y y

    21:21

    y pedir gamba roja dentro. Que fui a Madrid, me pusieron unas croquetas y unos canapés que dije, "Virgen santísima, lo que ponen por estas tierras." Bueno, evidentemente lo digo de coña, cualquier cosa que podáis hacer desde el

    21:36

    corazón y buena voluntad, bienvenido. Eh, lo hacemos aquí porque todo lo que hacemos es porque sentimos que hay una responsabilidad, porque h se habla poco de muchas cosas y desde una perspectiva intentamos abrir el

    21:51

    pensamiento crítico, el generar debate. No tenéis que pensar eh eh no no intento que penséis como yo o llevar la verdad absoluta.

    Yo creo que esa verdad es un proceso que cada uno tiene que interiorizar y buscar, encontrar y bueno,

    22:06

    pero todos somos seres humanos, la gente de bien y sí que es cierto que hay que tomar conciencia de esto, ¿no? Eh, yo no creo que haya que lanzar panfletos eh eh cuando viene Joffington o alguien de inteligencia artificial.

    Yo lo que

    22:22

    creo es que hay que ver qué mundo queremos y participar de su construcción. ¿Cómo?

    Pues bueno, eh, pues de muchas maneras, eh, en Xhub vamos a hacer varias cosas, eh, temas de formación, manifiesto X, libro,

    22:40

    lo caro que se ha vuelto todo, pero la culpa es de la IA. La culpa de que sea todo tan caro es de la IA.

    Es que no lo han querido contar, pero es es de la IA. La madre que los parió.

    Es verdad que es carísimo todo, ¿eh? salir a cenar, eh,

    22:56

    hombre, está claro que si ganas mucha pasta, que eh todo es barato, ¿no? Pero se nota, eh, hay menos gente cuando vas a los sitios e y la gente pues bueno, es normal, se lo piensa más.

    Pero bueno, sábado voy a desconectar, voy a dar una

    23:13

    vuelta media del aire y espero que os haya gustado el programa, el análisis, los comentarios que los hecho ligeros porque si no, vamos, eh sé que cada cosa se puede hacer mucho más profundo. Mañana seguiremos con el tema, con las preguntas y os traeré también cosas ya

    23:29

    concretas, referencias, programas, etcétera. Aquí simplemente ahora en real time.

    Igualmente, espero que os haya gustado. Gracias por acompañarme.

    Nos vemos mañana.