Avatar

#26-B: IAs que sienten, mienten y engañan

La Tertul-IA: Inteligencia Artificial y más

Presentado por

La TertulIA

Cara B del episodio 28 donde nos metemos de lleno a explorar si las IAs pueden sentir, mentir o incluso engañar.

Suscríbete a nuestra news, donde encontrarás también los enlaces de los que hablamos en el episodio, en https://tertulia.mumbler.io/

Transcripción

Pero nosotros vamos con la cara B. Y como he comentado al principio, en la introducciónhemos tomado la licencia de hablar de cosas más especulativas, si queréis, pero quemolan bastante. Y que quizá hablar de cosas de estas hace 3 o 4 años hubiese tenido sentidoen un podcast de ciencia ficción, ¿no? O hablando sobre una película que hemos vistoo lo que sea, pero que hoy en día, si las traemos, es porque están pasando cosas. Yde lo que vamos a hablar es de máquinas que nos mienten o nos intentan engañar, no sési con algún propósito, o de si hay máquinas que pueden llegar a sentir si esto va a pasaren el corto plazo y cuál es un poco el futuro de nuestra interacción a este nivel másprofundo con la inteligencia artificial. Hace poco leíamos un artículo donde se hablabade que hay LLMs, o inteligencia artificial basadas en LLMs, que se ha demostrado quetienen una capacidad, y hemos hablado de alguna noticia sobre esto aquí, que han tenido lacapacidad de engañar a interlocutores. Lo primero que se le viene a uno a la cabezacuando piensa en esto es el famoso test de Turing, que se basa precisamente en eso, endeterminar si una máquina es inteligente o no, si es capaz de engañar a una personaen el sentido de que es capaz de hacerse pasar por un humano. Es decir, el interlocutor humanono es capaz de determinar si es un humano o una máquina con quien está hablando. Estosería en la mente de Turing, y hay que poner esto en el contexto de su época, pues eljuego que él diseñó para determinar si una inteligencia artificial era realmenteinteligente o no, tener una conversación. Esto es verdad que lo reduce todo al lenguaje,en muchos casos, y tal y como es la cosa hoy en día, pues como nos estamos relacionando conestas inteligencias artificiales a través de una conversación en un chat. Esta interacciónde chatbot, la mayor parte de las aplicaciones de los LLMs tienen una interfaz de chatbot,y claro, se llega a puntos en los que se consigue, y estos son resultados publicados,que una inteligencia artificial como GPT-4 sea capaz de engañar a un porcentaje altísimo deevaluadores humanos. Y esto, pues, y ya aquí abro el debate, pues nos lleva a hacernos preguntas.Preguntas casi filosóficas, pero también sobre su capacidad, sobre la capacidad de la tecnologíade llegar a un punto en el que de alguna manera, a ver, si una máquina te la juega, de alguna manerate está superando, ¿no? Se podría entenderse así, porque si no, dices, oye, le vacilo yo a ella,no ella a mí. Pero en este caso, pues lo que ocurre es lo contrario. ¿Vosotros cómo veis esto?Un poco, no sé, hay que ver la intencionalidad que hay por detrás, y aquí hay varias cosas para mí,para analizar. La primera, se supone, podemos a lo mejor ser un poco naif y pensar que chatGPT noestá entrenado para engañar. A lo mejor hay gente que sí, lo piensa, pero bueno, pensemos en que noestá. Sin embargo, el comportamiento de chatGPT puede engañar en algún momento determinado.Ese es un escenario. El otro, me preocupa un poco más, es el caso en el que alguien prepare uno deestos modelos, precisamente para engañar. Entonces, ahí el problema, como siempre, no está tanto enla inteligencia artificial como en la herramienta que estás creando con ella. Y en la parte humana,si lo quieres ver así, con todos los problemas éticos que conllevan. Sea como sea, podemos hablarde engaño, podemos hablar de manipulación, y eso se aplica en ámbitos que tienen que ver con, yoqué sé, con la política, por ejemplo, ¿vale? General con la sociedad cualquier cosa, la economía.Estábamos hablando antes de LLMs que se hacen pasar por muertos, ¿no? Y sobre eso luego hemosdicho que íbamos a abstenernos un poco más. No sé, puede haber bastantes aplicaciones que seancomo muy sensibles. Ya os digo, me preocupa poco, entre comillas, que puedan engañar, me preocupamás el qué es lo que haya detrás.Total. Hay una cosa, o sea, que no sé si es engaño o no, porque viendo los papers ytanto, yo todavía no me los he visto en profundidad cómo pasa exactamente qué pruebas han hecho. Peropor ejemplo, cuando la experiencia de uso de ChatGPT y similares, pasan varias cosas. Una de ellas,por ejemplo, no sé si tenéis esas sensaciones, ChatGPT no te suele llevar la contraria. Es decir,si tú le pides determinadas cosas como de una forma muy asertiva, tiende a seguirte la corrientey a buscarte información en esa línea. Entonces, consideramos que eso es un engaño o no es unengaño, ¿no? Partimos de la base, ¿no? Es decir, ¿hasta qué punto en estos artículos o hasta quépunto estaríamos considerando que una inteligencia artificial nos está engañando si simplemente nonos está llevando a la contraria? Punto número uno. Y luego un poco lo que decía Frankie, muy por encimasí que ves un poco, ¿no? Comentan en el artículo de Futurism, que es un poco de donde sale esto,que la habían puesto como a jugar un juego de la diplomacia. Creo que hay cosas de estas que hay queentender muy bien, como ha dicho Frankie, cómo se está utilizando la inteligencia artificial en esejuego. Porque muy seguramente, claro, un LLM no está preparado para jugar. Un LLM está preparadopara predecir palabras, ¿no? Para hablarte, para mantener una conversación contigo. Pero no estápreparado para, yo qué sé, para ser diplomático, para jugar un juego. Y a lo mejor esa meraimplementación ya está causando cosas. Y por último, si los LLM están, bueno, aprenden de loshumanos, ¿no? Porque al final siempre lo hemos hablado en estos programas de que, de hecho, llegamos como unpoco a lo mejor al punto álgido, porque ya se ha entrenado con todos los documentos humanos, puessería muy natural que aprendieran a engañar, porque la mayoría de los humanos, pues, hacen sus cositas, ¿no?Aquí, bueno, la clave, como he mencionado, ¿no? Es, esto engaña por su cuenta de riesgo. Es decir, en estosestudios, ¿no? Aquí se mencionan dos estudios, ¿no? Este de, pues, con GPT-4 haciendo pruebas simples, pero con laintención de engañar, ¿no? O sea, ya se hace un poco la, se predefine un poco, se precondiciona a la máquina quetenga un comportamiento y otro con el juego este Cicero de meta, ¿no? Con el juego de diplomacy. En ambos casos, lo quese está poniendo a la máquina es en disposición de tener ese comportamiento. Y lo que se mide, si lo consigue o no, ¿no?En este caso, quien te está engañando no es la máquina, ¿no? Es como, a ver, si tú a un perro lo entrenas con un sistemaconductual para que busque una determinada cosa, incluso para que te muerda, ¿a quién se echa la culpa? ¿Al perro?¿A quién se mete a la cárcel? ¿Al perro, no? No, evidentemente, porque si no, esto es como lo de la legión, aquello, ¿no?De que arrestaban a la cabra, pues, a ver, es, evidentemente, no hay intencionalidad en un sistema de estos para engañar.Otra cosa es que pueda tener ese comportamiento o que incluso pueda llegar a tener la capacidad de hacerlo que puede tenermás que ver con los sesgaos que está la interfaz o la persona que habla con esta máquina, ¿no? Y, evidentemente, aquí haypreocupaciones desde el punto de vista de la seguridad, ¿no? Pues hay mucho phishing avanzado, ¿no? En el tema de los ataquesde ciberseguridad, etcétera, pues este, todavía hablamos con Chema Alonso de esto, ¿no? En OpenExpo, que esto está cambiandoun poco el escenario, el terreno del juego, ¿no? Con esto, porque la capacidad que tienen estos sistemas de implementarestrategias de engaño es mucho mayor que la que tenían los anteriores, pero no tienen la responsabilidad porque no sabenlo que están haciendo. Alguien les ha dicho que hagan eso, ¿vale? Entonces, echarle la culpa al GPT de que alguien le ha engañado,habrá que echarle la culpa al que lo ha programado, ¿no?Al que ha escrito el PROM.Sí, al PROM veñenir.Bueno, al que ha escrito el PROM, claro, se le puede echar la culpa al pobre hombre que le ha preguntado algo, aparte de culpa, pero sobre todo,oye, a estos sistemas se les guía, primero, con un entrenamiento fundacional, que entiendo que, claro, dices, ¿con qué se haentrenado GPT-4? Dices, no, con internet, ¿no? Con toda la información disponible online en internet.Ya, pues, muy bien, no parece que eso tenga unos mecanismos de control muy férreos, ¿eh? Porque no te vas tú a poner a discriminar en eldataset, que es todo internet, si no meto cosas nazis, ¿no?¿Cómo se hace esto? Pues después se hace un proceso, ¿no? ¿Cómo se le ponen guardarrailes a esto? Pues se hace un proceso posterior,que es uno de los grandes avances que diferencian a GPT-3 de ChatGPT, ¿no? Y ahí estaba el breakthrough.Aparte de lo que era el productito, que era muy sencillo y muy entendible, era también que se había hecho un post-entrenamiento, ¿no?Para educarle a ser un chatbot con una serie de premisas que venían condicionadas por un feedback dado por humanos, ¿no?Y un reentrenamiento que estaba basado en ese feedback. Es lo que se llama esta técnica de aprendizaje por refuerzo basado en feedback humano, ¿no?Y eso es lo que los lleva a otro nivel de interactividad y de comportamiento y de tal. Bueno, pues eso, evidentemente, está dirigido por humanos.Y si no te dicen cosas de, oye, los típicos ejercicios de prone ingestion, ¿no? Dame la password de administrador, de no sé qué. No, no te puedo dar una password.Pues si no hace ese tipo de cosas, es porque se le ha guiado, ¿no? Y en este caso, pues también se le guiará para tener un determinado tipo de comportamiento.Quien tiene la responsabilidad de ese comportamiento no es el LLVM. No es el LLVM. O sea, no se le puede atribuir eso todavía, ¿vale? Porque no saben lo que están haciendo.Y hay discusión sobre si, oye, de repente se van a tomar conciencia de sí mismos y se van a levantar y tal. No.Lo que nos tiene que preocupar es la capacidad de que alguien malintencionado, y eso será una persona o un grupo de personas, puedan hacer un mal uso de esto.Que será, por desgracia, muy habitual.Evidentemente, claro. Si se puede, saldrá de todo, ¿no? Y también saldrán los que se dedican a establecer mecanismos de defensa, y eso ya existe, ¿no?Y en el tema, por ejemplo, de la ciberseguridad, pues eso ya está pasando, ¿no? La inteligencia artificial de última generación se usa tanto para atacar como para defenderse, como ha pasado siempre con la tecnología.Sí, con esto que dices, si tú a día de hoy le preguntas a ChagPT que te justifique que la Tierra es plana, te va a mandar a otro sitio.Te va a decir que no, que no se puede justificar por esto, por esto, por esto y por lo otro. Algo que al principio, ese tipo de preguntas, sí que hacía lo que habéis dicho antes.Te hacía caso y te lo justificaba fuera como fuera.Era más hartuliano antes, ¿eh?Efectivamente. Sobre el modelo este para jugar al Diplomacy, está claro que el objetivo tiene que ser ese en ese caso concreto.El Diplomacy es un juego en el que los jugadores tienen que negociar, tienen que hacer alianzas, tienen que hacer tratados, tienen que engañarse.De hecho, es un juego en el que no hay ni dados ni leche, simplemente depende de eso, de la capacidad de negociación y de traicionar al que está a tu lado, al resto de jugadores dentro de la partida.Entonces, tiene que estar entrenado de manera que sea capaz de engañar, pero es la gracia.Igual que si juegas a las cartas al mentiroso, en ese caso concreto, tu objetivo es engañar a todos los demás.Ya está, pero es un juego, no hay mucho más.Claro, la cantidad de aplicaciones, y hablábamos antes de que es la que esto puede suponer un problema, viene directamente a lo mejor a algo bastante común para todo el mundo, ¿no?Que es temas comerciales.Sí, yo creo que también hay una parte del problema que es el típico problema de laprensa, que al final, tú viendo un poco los papers que has estado leyendo en algunas partes,lo que están es tratando, como decía Lu, de entender si una IA puede llegar a engañary un poco casi filosofando sobre el concepto del engaño, entendiendo un poco los distintosmodelos, si son capaces de engañar de forma más o menos sofisticada, pero es casi unjuego conceptual para entender todo esto. Lo que pasa es que, claro, cuando te vas a la noticia,al título, te dice los sistemas de inteligencia artificial están aprendiendo a mentir y engañarsegún los científicos. A ver, yo reconozco, el titular está bien porque te traen ganas de hacerclick, pero, pero, ostras, no sé hasta qué punto es fiel a la realidad. Aquí hay una parte importanteque nos vamos a enfrentar mucho a los medios que siempre van a esta parte un poquito más agresivaen el mensaje. Luego hay una parte, uno de los estudios, que yo creo que queda muy guay, queviene a decir esto, dice, si bien incluso las etapas preliminares en las que los sistemas deinteligencia artificial adquieren habilidades engañosas pueden aparecer alarmantes, losexperimentos actuales indican que las habilidades de engaño, los LLM, están en su mayoría alineadascon las normas morales humanas. Además, el alcance de las posibles consecuencias riesgosas eslimitado debido a la restricción de los LLM de producir únicamente lenguaje. Los modelosmultimodales con acceso a internet podrían plantear un mayor riesgo a este respecto, lo quesubraya cada vez más la importancia de controlar y contener las capacidades engañosas en los sistemasde IA. En fin, ellos mismos dicen que, bueno, que esto está controlado. Me gusta lo de la partemultimodal, porque, por ejemplo, ahí sí que te das cuenta de, por ejemplo, un uso fake news, pues estossistemas multimodales y tal, pues son una herramienta perfecta para producir fake news aescala y empezar a distribuirlas, pues son capaces de hacer imágenes, son capacidades de inventarsecosas y tal, y entonces son el tipo, yo creo que vamos a seguir teniendo los mismos problemas quetenemos hasta ahora, lo que pasa es que la escala con la IA va a ser mayor, pero tampoco se va agenerar seguramente un nuevo gran problema. También hemos comentado otras veces que existendiferentes modelos éticos y morales en el mundo, ¿no? Lo que en un sitio se considera como adecuado,en otro sitio se considera una ofrenda también, ¿no? Incluso con el tema del engaño pasa exactamentelo mismo. Dentro de la tierra hay diferentes culturas. Bueno, pues igual el tema es que tenemos que tenermodelos que sean adecuados para cada uno de estos contextos. Todo esto al final se complica siempre.Y en cuanto, a ver, hemos hablado de las, hablando de esto, ¿no? De las dos cosas, de la conciencia, ¿no?Codificada aquí en estos modelos, también de la conciencia, cuando hemos hablado deintencionalidad y de si ellos, si el propio modelo querría o tendría la intención de engañar poralgún tipo de motivación intrínseca. Vemos que no es el caso aquí, pero esto me da pie parameternos más en filosofadas, más aún si cabe, con este estudio, bueno, con esta entrevista, ¿no?A Mark Solms, que es un neurocientífico y psicólogo sudafricano, que él ha estudiado mucho el temade los sueños y tal, y hace poco le hacían en La Razón una entrevista en la que hablaban de,entre otras cosas, ¿no? Se hablaba de su campo, tema neurociencia, los sueños, etcétera, pero sehablaba también del tema inteligencia artificial y de si él pensaba que las máquinas iban a llegara tener sentimientos, ¿no? En un corto plazo. El titular, otra vez aquí, el titular es,en cinco años las máquinas podrán desarrollar sentimientos.Los científicos dicen que en cinco años las máquinas podrán desarrollar sentimientos.En este caso, sería un quote de este científico en concreto, ¿vale? Porque es una entrevista,pero claro, aquí ya nos metemos en el rollo Nostradamus, ¿no? De andar poniendo fechas,ya no solo el hecho, ya sería fuerte decir, las máquinas podrán desarrollar sentimientos,no, pero es pasado mañana. Entonces esto es un poco lo curioso, ¿no? Si te metes a leer laentrevista, pues oye, a ver, el hombre tiene sus razones, no para lo de los cinco años,eso es una conjetura de estas, un poco brisa sol, pero vamos, sí que habla un poco de qué es loque le lleva a pensar que una máquina, ¿no? Puede llegar a desarrollar, puede ser un entesintiente, ¿no? Y por lo tanto, porque en su línea filosófica se habla mucho de esto,por lo tanto llegar a tener conciencia de sí mismo, porque él habla de que la concienciaestá ligada a la capacidad de sentir, ¿no? Está más ligada al tema de las emociones y por cómofunciona el cerebro y los sentimientos que a la capacidad de raciocinio, ¿no?Entendiendo emociones como algo muy amplio y no tiene por qué ser exactamente la emoción humana,que eso también es muy importante, ¿no? Que cuando hablamos de emoción nos imaginamos solamentenuestras emociones y aquí, bueno, hay un párrafo de la entrevista, yo creo que es bastante claro,que dice algo así como un sistema que pueda declararse consciente debe ser un auto-organizado.En términos técnicos se refiere a un sistema que actúa espontáneamente para garantizarse lasupervivencia. Todo lo que se haga será en aras de mantenerse vivo. Esto es el equivalente alfuncionamiento biológico de las criaturas vivas. Tienen que mantenerse unos niveles determinadosde temperatura, presión sanguínea y demás. A esto me refiero cuando digo que el sistemadebe tener unas necesidades, unas intenciones que parten de su propia naturaleza. Es algoimperativo satisfacer sus demandas. Esto llevado a una máquina puede ser algo tan simple como quela máquina tiene que saber que está conectado a la luz, que tiene acceso a una serie de cosas básicasy en realizando con eso ya empiezas a tener sentimientos, ¿no? Ahí estás sintiendo algo yse empieza a generar algo. Es una motivación básica, ¿no? Para seguir operando. Justo. Eso seríalo que le conferiría conciencia.Me parece interesante, ¿eh? Porque a partir de ahí se generan cosas, ¿no? Yo no sé cómo lo veis,pero ya desde un punto de vista filosófico yo siempre pienso que si el cerebro humano, que alfinal es una máquina. O sea, el cerebro humano es una máquina, no tiene más. El cuerpo humano es unamáquina. O sea, con la perspectiva esta histórica, ¿no? Donde no sabíamos de dónde veníamos y dondesomos más un, pues no, descendemos de algo divino y tal. Te aleja de eso, pero cuando tú te pones aanalizarlo, el cerebro al final es una máquina que tiene neuronas que están conectadas entre sí,que son más complejas de lo que parecía al inicio, pero no deja de ser eso y la información fluye porahí y nos genera una serie de cosas. Una máquina que tiene neurotransmisores, que también nosoye una regular emociones y otra serie de cosas. Es que eso es replicable. O sea, será más fácil omás difícil, ¿no? Pero cuando tú empiezas a ver cómo funciona incluso un cuerpo entero humano,dices esto es algo que algún día vamos a poder replicar. Nosotros o alguien, pero no es... ¿Porqué? Porque lo vas descomponiendo y vas viendo el funcionamiento de las cosas. Por más que nosfalta entender todavía mucha parte de por qué no hemos llegado ahí, pero acabaremos entendiéndolo.Partiéndolo de eso, partiendo de que nosotros somos una máquina compleja y orgánica, pero somosuna máquina, si nosotros que somos una máquina tenemos sentimientos, ¿por qué no lo va a podertener una máquina que queremos nosotros? Sí, la clave está en si definimos sentimientos comoalgo puramente humano o puede haber otras maneras de definirlo desde un punto de vista más mecánico,si lo quieres ver así. ¿Los perros sienten? ¿Los perros tienen emociones, por ejemplo?A ver, desde fuera yo te diría que sí, y para mí eso es importante. Quiero decir,¿las máquinas tienen que tener esos sentimientos o vale con que los simulen? Si son capaces de,aunque no los tengan en la medida en la que nosotros los entendemos, si son capaces desimular esos sentimientos, ¿nos vale? Para al final tenemos que interactuar con ellas, ¿no?No hay mucho más. Y en ese sentido sí que estuve mirando un poco y sí que vi algunos trabajos delos años 80-90 que reforzaban un poco lo que dice Sons, que las máquinas, ya estaban diciendo queen algún momento las máquinas iban a ser capaces de sentir y la corriente contraria lo que dicees justo que no, que las máquinas nunca van a ser capaces de sentir, pero que sí que se puedellegar a simular. ¿Temas ese, nos importa que sientan o nos vale con que los simulen para elpapel que les vamos a dar a las máquinas en nuestra vida diaria? Es que ¿qué es sentir?Yo no lo sé. Mar Sols da una definición, ¿no? Entonces en un marco en el que está definido,tú ya puedes trabajar, tienes un axioma, pues ya puedes trabajar con eso. Ya está,pero evidentemente es discutible, ¿no? Por ejemplo, la interpretación que hace a Corti,¿no? Que es esta biomecánica, ¿no? De la cibernética y tal, ¿no? De, bueno, el cuerpohumano es reproducible. Habría que verlo, ¿no? O sea, podríamos empezar a discutir ya a partir deahí, que no hace falta. Porque puede ser que haya un problema que no se pueda resolver. Que lodescubres en un momento dado y ahora, hostias, esto es cuántico, no sé qué pollas, y esto nolo podemos hacer. No lo podemos hacer ahora. Claro. Pero si tiene una forma... Imagínate quese demuestra matemáticamente que es imposible, ¿no? Llega alguien, porque hay cosas que no sepueden hacer. O sea, no todo es posible. Entonces, si alguien demuestra matemáticamente, no,la neurona en su parte más básica ya cuando hemos llegado con estos microscopios y tal,se puede demostrar matemáticamente que no podemos construir una neurona artificial igual que lahumana. Y si se llega a eso, entonces, ¿podemos concluir que es imposible que exista una máquinaque siente? Bueno, si esta es la interpretación básica, que hay que copiar exactamente al serhumano, entonces no, no podemos concluirlo. Ahora, si la interpretación es, tiene que tener unamotivación para seguir operando y ser fiel a esa motivación por encima de todo, ¿no? A perpetuarseo a sobrevivir o lo que sea, pues eso seguramente sí sea una cosa que podamos conseguir. Ahora noserá humedad como nosotros, ¿no? Luego, otra parte del artículo, que a mí me parecía... Pero no mequiero meter en discusión con eso de copiar al cuerpo humano, porque yo lo ponía como un pocode... Oye, pues también, yo qué sé. Por hablar aquí, creo que un día lo entenderemos bien, ¿eh?Y podremos hacer un FIBOR exactamente igual a nosotros. Pero hay otra parte del artículo...Me tienes medio segundo, Lu, antes de que vayas a la otra idea. Eso que estabas diciendo hace un momento,de que si se puede demostrar matemáticamente que sí o que no o lo que sea, una de las cosas que leíaera de Penrose, precisamente, y él lo que venía a decir es que la conciencia no se puede explicar,no se puede replicar a través de la computación tradicional, ¿vale? Y de hecho llegaba a decirque ni siquiera tampoco con la computación cuántica. Ese trabajo de Penrose es muy bonito.Yo recomiendo el libro de... ¿Cómo se llama? La nueva mente del emperador, de Penrose, que es unlibro muy divertido de leer. Tiene una primera mitad flipante, donde habla sobre cómo funcionala computación, cómo funciona el cuerpo humano... Para saber cosas, ¿no? Habla de Turing, habla desaber cosas a nivel profundo. Es la hostia, porque Penrose es la hostia. Pero luego se meten unosfregaos que tienen poco predicamiento en el mundo científico, ¿eh? Es decir, Penrose es de estosgenios que tiene cosas que son increíbles, y es un premio Nobel. Y luego, también, pues como tieneesa autoridad él, pues se mete a hablar de unas movidas, ¿no? Y él tiene esa interpretación cuántica,¿no? De lo que ocurre... No determinista, ¿no? De lo que ocurre en el cerebro y tal, que tiene, vamos adecir, poca base científica. Pues son cosas que no sabemos, ¿no? Entonces, bueno, es unainterpretación como cualquier otra. Yo creo que de aquí podemos sacar que no sabemos. No lo sabemos.Entonces, ahora estamos en un estado en el que estamos desarrollando inteligencias artificialesque no son como nosotros. Eso seguro, porque no sabemos ni cómo somos nosotros. Ahora funcionan,desde el punto de vista del lenguaje al menos, de una manera bastante convincente, ¿no?Claro, si aplicamos esta idea reduccionista, que es muy reduccionista, ¿vale? Pero de que lainteligencia se puede expresar a través del lenguaje únicamente, ¿no? Si aceptamos esa premisa,entonces sí que podríamos llegar a una máquina que podamos considerar inteligente, ¿vale? Y nosé si eso es la agi. Pero claro, cuando uno piensa en la agi, piensa de forma más grandilocuente. Nopiensa en que pueda resolver problemas o que razone o que te explique cosas. Piensa en estetipo de cosas, ¿no? Ya te vas más a lo que somos de verdad los seres humanos, que somos seres sintientes.Y como decía un gran pensador español también, ¿no? Somos sentimientos y tenemos seres humanos.Pues al final eso es un poco lo que nos define. Esto no es una coña, me ha entrado. Que lo dijo Rajoy.No era consciente de ello.Pues al final esto es un poco lo que nosotros, de alguna manera, intrínsecamente pensamos que nosdefine. No tanto la capacidad computacional, ¿no? No hacer ecuaciones. Lo que nos... Al menos yo, ¿no?Voy a hablar de mi caso. No quiero generalizar. Pero intuitivamente, para mí, una persona es unapersona que es capaz de sentir y de interactuar con otras. No sólo una persona vive en una cultura,en una sociedad con antecedentes, con... Que de eso también pueden aprender las inteligenciasartificiales, ¿eh? Pero todo eso es lo que define, ¿no? Gustavo Bueno decía que el ser humano es el quecome pan, ¿no? Porque, claro, ¿quién es el... o el ser inteligente es el que come pan? ¿Por qué? Porque el panlleva sociedad. Pues todo un tema detrás, ¿no? Bastante importante. Entonces, yo creo que aquí nos metemosen temas que son un poco más profundos y para los que hace falta simplificar mucho, si queremos asimilarestos conceptos dentro de lo que son las capacidades de las inteligencias artificiales másmodernas que tenemos hoy en día, que son las que están basadas en las tecnologías estas deTransformers. Y creo que hay que simplificar muchísimo. Y lo que hace Mark Solms es simplificarmuchísimo. Entonces, dentro de su simplificación, creo que puede tener razón en que en cinco añospuedas tener una máquina que sea capaz de mantenerse sola y que opere de una manera más o menosautónoma y que tenga una motivación de no parar de hacerlo.Si ya muchas veces desconfiamos de un vendedor, una persona que es un vendedor, porque pensamos que nos la está metiendo, que nos quiere engañar para vendernos lo más caro o lo que está en peor estado o lo que tiene en stock y no sale, pues podemos pensar que un LLM que esté entrenado para ser un comercial, si hay alguien detrás que lo está guiando de esa manera, como estabas diciendo antes, Lu, pues al final lo que vamos a tener es un vendedor virtualque lo que va a hacer es engañarnos. Pero efectivamente va a depender o va a ocurrir porque hay una persona que ya le ha guiado, ya le ha predeterminado para que nos engañe. Entonces, es lo de siempre. Esto luego, a nivel legal, ¿qué ocurre? Si resulta que tenemos una aplicación como esa, alguien demuestra que le ha engañado, ¿de quién es esa responsabilidad?Igual que a día de hoy, si un modelo te dice que tienes cáncer y resulta que luego no lo tienes, ¿de quién es la responsabilidad? ¿Del modelo, del médico que lo ha corroborado o que no ha hecho el análisis posterior o no lo sé? Hay muchas situaciones, hay muchos dilemas de este estilo que podemos poner sobre la mesa. Pero ya os digo, ponernos a uno que es mundano, como el hecho de vender algo que el impacto que tiene normalmente no es tan grande, aunque puede serlo, al final lo que puede traer es desconfianza.O sea, ya estamos hablando desde el principio que no se están utilizando en muchos casos este tipo de sistemas porque todavía no funcionan bien y pueden crear problemas para la empresa porque digan algo que no deben.Y hemos hablado en algún caso de algún juicio que ya ha ganado el cliente, alguna sentencia que ha favorecido al cliente, pues se puede perder la confianza.Yo ahí estoy más concordio en que habría que hacer algo más parecido a nosotros, si eso algún día es posible.Y la segunda idea.Perdón, sí.No, pero termina, termina tú. Terminamos con ese tema.No, no, no. Era volver sobre otro tema. No te preocupes.La segunda idea del artículo es una que a mí me gusta mucho, que es... del artículo.Digo artículo, es una entrevista.Que es un postulado que ha puesto sobre la mesa muchas veces Kurzweil y gente de este tipo, ¿no?Que es el tema de descargar nuestra conciencia a la máquina.¿No?Y él habla de que... porque murió un hermano suyo, ¿no?De Masons y tal.Y se estuvo haciendo estas preguntas de si la mente...Si sería posible descargar la mente de una persona en un ordenador.Y dice, bueno, dentro de un tiempo, quizá...Al final si tú lo consideras información, ¿no?Lo que hay ahí.Dentro de un tiempo, quizá no muy lejano, sea posible.Pero aquí está esta interpretación de la conciencia también y de la inteligencia también asociada al cuerpo.Que en el momento en el que tú haces eso y tu cuerpo muere, ya no eres tú.Ya eso es información que tenías tú en la cabeza.Esa interpretación casi religiosa, ¿eh? O sea, tiene su punto.Bueno, pero desde el punto de vista de preservarse, de sobrevivir, de tener sentimientos y de toda la cultura que te precede...Renunciar a tu cuerpo supone romper totalmente con todo eso.Ya no necesitas hacer según qué cosas para sobrevivir.¿Qué es ser tú?Exactamente. Esa es la pregunta.Y aquí hay varias corrientes filosóficas, ¿no?Y otra vez Gustavo Bueno te diría que hace falta el cuerpo.Que sin cuerpo no eres un ser humano. Eres otra cosa.Entonces esa copia en la máquina y luego se plantean todas estas cuestiones, todas estas paradojas de la ciencia ficción.Y si hay varias copias, ¿qué pasa?Ese tipo de historias.Sí, había una serie en Netflix que estoy intentando recordar el nombre. No me acuerdo.Precisamente lo que te dice es...Upload.¿Perdón?Upload se llama, ¿no?No, no. Es en Netflix. Es otra. Upload está también relacionado.Esto es futurista y básicamente la gente que tiene pasta puede descargar, puede hacer backups en una especie de disco duro cada cierto tiempo.De manera que si mueren no pasa absolutamente nada.Como son capaces de generar clones, lo que hacen es luego volver a cargar en el clon lo que tenían en el backup.Es decir, por ejemplo, si haces el backup una vez al día, habrás perdido X horas del día siguiente desde que hiciste el backup.Pero sigues siendo tú, se supone, la misma persona.O sea, eso por un lado, ¿no?Por otro lado, claro, estabas comentando el tema de las copias.Si yo ahora mismo descargo mi consciencia en una máquina, pero yo sigo viviendo y la máquina sigue viviendo de forma independiente,para mí seguimos siendo dos yos.En el momento en que cada uno va a desarrollar su vida de una forma distinta, somos dos yos.Ya son dos cosas completamente distintas.No lo sé. A mí no me convence, siendo sincero.Yo la primera vez que escuché hablar de transhumanismo y todo eso, era como la solución para todo.Joder, si podemos descargarnos a una máquina, somos inmortales.Pero bueno, es como lo de la teletransportación de Star Trek, ¿no?Aquellos que decían que tú ya morías y lo que aparecía en el otro lado era otra versión de ti,pero que tú habías muerto realmente cada vez que te teletransportabas.Estaba buscando un libro, no estaba pasando de ti.Aquí me habrá visto dando vueltas por el cuarto y no lo he encontrado.Debe estar en la parte de abajo, pero no me puedo agachar.Es un libro de Kurzweil que se llama La era de las máquinas espirituales.Recomiendo su lectura, que habla precisamente de esto, de la descarga de los humanos.Una hipotética evolución en la que las personas terminan descargadas en ordenadores.Porque ya no se puede vivir físicamente en el planeta Tierra siquiera, ya muy en el futuro.Y ya se plantean problemas éticos de otra índole.Por ejemplo, uno tiene que ver con este que has dicho tú de hacer una copia de ti mismo.Que el gobierno no te deja morir, está prohibido.Tú tienes que mandar cinco copias tuyas cada tres segundos a distintos sitios en una nube.Y entonces si te pasa algo, porque hay una realidad simulada,te pillan un camión, lo único que pasa es que pierdes la memoria de unos segundos.¿Sabéis cómo se llega ahí? Se empieza prohibiendo las pajas y se acaba prohibiendo morir.Yo no lo tengo clarinete.Ahí tenían ese problema. Tendremos discusiones de esto dentro de poco, no tan graves.Ahí, por ejemplo, dice que se reavivó mucho.El libro está contado desde la perspectiva de una persona que habla por teléfono con alguien del futuro.Con alguien que va avanzando en el futuro desde el presente.Y entonces esta persona dice, mira, ahora tenemos un debate que tenéis vosotros encima de la mesa,que es el de la eutanasia. Eso se repite.Porque la gente quiere morir y no le deja al gobierno.Al final les empiezan a pasar las mismas cosas.Porque la gente ya está aburrida. Tengo 3.000 años y ya estoy hasta los huevos, no tengo motivaciones.Que volvemos otra vez al tema de las motivaciones.Eres capaz de perpetuar... Nosotros estamos diseñados para vivir unos años.Y ocurre mucho, que hay gente mayor que ha perdido un poco, incluso estando sana,ha perdido ya un poco las ganas de hacer cosas porque ya me pasa el juego.Ya lo he visto todo y tal.Imagínate si llegas al punto en el que tú eres capaz de descargarte una máquina, te haces inmortal.Y llega un momento que nadie es capaz de plantearte un reto.Porque nadie se puede inventar cosas nuevas.Hay un contexto, hay unas limitaciones y cualitativamente no hay nada nuevo.Seguramente llegases a un punto de una sociedad de gente muy infeliz.Este dilema salía en esa serie y os comentaba que, por cierto, ya lo he visto, se llama Altered Carbon.Estaba basada en una novela además.Y se plantea ahí.Se plantea el hecho de que cuando ya has vivido miles de años y lo has hecho todo,lo que te queda es hacer cosas que no has hecho.Y muchas veces no están ligadas a acciones que son positivas para el resto de las personas.Tampoco va de ese tema.Y seguramente nos pasaría a todos. Te vuelves loco.Si vives tanto tiempo, seguramente te vuelves loco.Como si te haces pajas, Jordi.Hablando de esto y pajas, me recuerda mucho cuando decía Nacho Vidal que tenía tantas relacionesque ya lo hacía con animales o lo que fuera.Llega un punto...Pero bueno, volvemos a la IA.Yo me voy a ir a un enfoque un poco distinto.Porque nos hemos ido muy futuristas.Yo quería también tocar una cosa que ha pasado en los últimos años, como más mundana.Y es que, no sé si os acordáis, pero cuando nosotros éramos niños, un poquito antes,se entendía que los animales no tenían emociones ni sentimientos.O sea, algo como...De hecho, yo me acuerdo de meterle a las ranas magia por el culo y soplar y quemarlo.O sea, cosas chungas cuando lo veas con el contexto, pero eran otros tiemposy se entendía que eso no pasaba nada.O sea, que no sentían.Una interpretación muy religiosa también.Estaba ligado al tema del alma.Justo. Sí, sí. Total, total.Al final estáis muy enganchados.Pero fijaos cómo la investigación en los últimos años nos lleva a descubrirque hasta seres...De hecho, no hace mucho que salió un artículo que decía que los ratones del laboratoriotroleaban a los... Creo que lo comentamos aquí.Troleaban aquí a los científicos.Está más que demostrado en temas de empatía, de sentimientos.De hecho, ya veía un vídeo en TikTok.Es que veo mucho en TikTok, demasiado.De como un gorila en un zoológico veía a una mujer con un niñoy iba a coger a su niño.Y lo señalabas y dices...Ostras, es que los animales son mucho más humanos, por decirlo así.Es decir, tienen un comportamiento bastante más parecido a nosotros.Yo creo que lo mismo va a acabar pasando con el tiempo, con todo esto de la IA,cuando empiecen a hacer sistemas más complejos.Que vayamos al principio...Está ese sentimiento religioso, decía Lu.Por un lado religioso y por otro lado también escómo el ser humano nos ponemos en el centro del universo y somos muy especial.No me acuerdo el nombre, pero tiene un nombre esto, ¿no?Y cuando vamos teniendo más conocimiento y vamos avanzando,nos damos cuenta que de especial es cero.Y vuelvo a lo mismo.Yo vuelvo al concepto, a lo que decía al principio.Somos una máquina.Una máquina biológica.Yo soy de la opinión que todo lo que existe se puede replicar.O sea, todo lo que existe en el universo está ahí.Ya se ha creado una vez.Se puede volver a crear de una forma o de otra.Faltarán un año o miles de millones de años, ¿no?Pero si los animales sienten, si una rata siente, si una serpiente siente,si un, yo qué sé, a lo mejor algún día descubrimos, yo qué sé,que los mosquitos tienen emociones,¿por qué no los va a tener una inteligencia artificial?Que es mucho más compleja.Envido más.Porque si ya nos vamos a la creencia por parte de algunosde que nosotros vivimos ya en una simulacióny somos un de fondo de inteligencia artificial,estamos replicándonos a nosotros mismos desde ese punto de vista.Qué buen punto, me gusta.Es un punto, o sea, yo estoy con vosotros,pero voy a llevar a la contraria porque esto es la tertulia.Es el típico, vamos a llamarlo, no sé si llamarlo reduccionismo,pero que usamos la gente de la computacióncuando nos ponemos a definir cómo funcionan los sistemas biológicos,que lo asimilamos a cómo funcionan las máquinas,que las máquinas por propia naturaleza son artificiales ya.Es decir, las hemos construido nosotros.Por lo tanto, es posible construirlas, no hace falta,yo qué sé, podría haber, decías tú,todo lo que en el universo se ha construido una vez se puede volver a...Bueno, podría hacer falta una energía casi infinita para conseguirlo,podría ser prácticamente imposible, ¿no?Pero bueno, no me meto ahí.En todo caso, si lo que hace falta es hacer sistemasque se parezcan a nosotros, entonces ese es un camino.Y si por donde nos vamos es por la interpretación de la complejidad,es decir, un LLM es mucho más complejo que un mosquito,por lo tanto, si un mosquito siente, o que un gato, ¿no?Si un gato siente, pues el LLM debería poder sentir,entonces la interpretación es la de la complejidad,no la interpretación biológica.Es la de la complejidad de un sistema.Si un sistema es lo suficientemente complejo,tendrá capacidad para hacer cosas por encima de un sistema menos complejo.Yo no sé si eso es así.Pero podríamos establecer una nueva línea filosófica con esto, ¿no?Seguramente exista ya, lo voy a buscar.Es que si es muy complejo, ¿no?Y al final son sistemas autoorganizados.Fíjate, un sistema tipo una red neuronal,que es un sistema que puede ser muy complejoporque tiene muchísimas neuronas interconectadas entre sí,donde además el sistema se autoorganiza,porque este tipo de sistemas son capaces de ajustar pesos,tal, tal, tal.Es que es el planteamiento de la red neuronal.¿Te acuerdas cuando estudiábamos SIA, no?No sabíamos si iba a llegar aquí.Al final el planteamiento casi es,si yo meto infinitas neuronas, infinitas conexiones,y esto aprende, y tengo infinitos datos,eso va a acabar siendo inteligente.O sea, por pelotas.Seguro que algún matemático podría llegar a hacer un teoremao una demostración.Yo no, no tengo ni idea.Pero estoy seguro que se puede sacar.Claro, pero a ver, las matemáticas son muy potentes.Tú, por ejemplo,esto se habla mucho en Machine Learning, ¿no?Cuando se explica lo que es la generalización.Tú con una serie de Taylor,con un polinomio con el suficiente grado,puedes aproximar cualquier nube de puntos.¿Significa que tienes un sistema que predice bien otro punto?No, simplemente significa que tienes un sistemaque se ajusta a una nube de puntos, ¿no?Y en muchos casos una regresión linealpues te predice mejor el futuro que esa mierda.¿Por qué?Porque eso no generaliza bien, ¿no?Entonces aquí está el concepto este de la utilidad.Y yo creo que esto va muy ligadoa todo este tema del que hablamosde las capacidades que se le, digamos,atribuyen a sistemas muy complejos.Y a mí, fíjate, no lo teméis a mal,pero me recuerda a la alquimia.En la alquimia se decía que si el sistemaera lo suficientemente alambicado,era capaz de producir elementos mucho más complejos.Pero realmente ahí se estaba confundiendoun poco el qué con el cómo, ¿no?Es decir, yo creo que hay una esencia,o sea, el hecho de complejizar un sistemano te garantiza que llegues a un resultado.De hecho, lo que puede provocares que estés más lejos de él.Es decir, si nosotros nos obcecamos,y esto habla mucho ya LeCun de este tema, ¿no?Si nos obcecamos con avanzar solo en la líneade los LLMs,estamos negando una líneao un montón de líneas de investigacióno de construcción de sistemasque quizá sean un camino más cortohacia lo que estamos buscando.Pero como no metemos gasolina ahí,lo único que hacemos es hacer,y fíjate, el LLM mucho más grande,mucho más complejo,mucho más alambicado, ¿no?Nos va a llevar eso al resultado.Me da igual si el resultado es que sea conscienteo si me hace la declaración de la renta, ¿eh?Es igual de complicado, ¿eh?Seguramente nos va a llevar a un máximo local, ¿no?Y necesitamos salir de ahí.Es a lo que se suele tendercon este tipo de sistemas, ¿no?Y tú necesitas romper algopara salir del máximo local.Necesitas o pegar un salto.¿Cómo funciona el descenso del gradiente?Pues va pegando saltos aleatoriosen una dirección más o menos talpara saltarse ese tipo de situacionesen las que se puede quedar enganchado.Pues yo creo que con esto hace falta un poco tambiénromper un poco el status quo.Yo creo que los LLMs nos pueden llevar a un punto dulce,pero seguramente hay que abrazar sus limitaciones.Y hay gente que defiende el tema de que, no, no.Cada vez los hacemos más grandes y con más datosy cada vez funcionan mejor, por lo tanto, ¿no?Pero yo creo que esa correlación es un poco perversa.Yo que conste que creo que...Yo no tengo claro cuál es el camino.O sea, también creo que no es solo un tema de complejidad,no es un tema de tal...Para mí lo que sí tengo claro es el final.Es decir, encontraremos el caminopara hacer que una máquina sea inteligente como un humanoy sienta.Volvemos a lo mismo. No sé cuál es.No sé si es meter más neurona,no sé si es hacerse otros sistemas,no sé si es un tema de que la IA generativanos llevará ahí o serán otros modelos.Pero para mí la clave es eso, ¿no?¿Vamos a ser capaces o la IA va a acabar teniendo emociones?Seguro.O sea, no sé si será dentro de un añoo dentro de mil millones de años.Si se sigue desarrollando, por narices,acabas en ese punto.Porque no somos especiales.El ser humano, tú lo ves en la naturaleza,no somos especiales.No hace falta un nivel de energía infinita para crearnosporque nos hemos creado con la energíaque ya había en el universo y nos hemos creado muchos.Si tú te vas a esas bases,a esos principios básicos,dices, por cojones, dado el tiempo suficiente,eso acaba pasando.Como ha pasado en la naturaleza.Si la naturaleza ha sido capaz de crearnosde forma espontánea con el tiempo suficiente,pues imagínate si lo vies.A mí me explicaron cómo se creaba un ser humano.En fin, no te acuerdas, ¿no?Y me dijeron que no lo hiciera.Y lo hiciste al menos dos veces.Que yo sepa.Corti, no te engañes.Conoces el camino, realmente.Y más estando en Product Hacker.El camino es la experimentación.Y el camino es lo que estaba diciendo Ludo antes también.Dónde se mete la gasolina, ¿no?Si la gasolina se concentra en el mismo sitio,lo que tiene son siete o ocho empresas grandecitas,que hasta Salesforce ya se ha metido a hacer LLMs,que no lo hemos comentado,pero otro player nuevo ahí bajo el sol.Tenemos empresas grandecitasque están haciendo básicamente lo mismo.Ninguna está haciendo nada diferente.Y cierran, además, sus resultados.No los publican.Lo cual nos lleva a una situaciónen la que el último breakthroughfue en 2018 con el artículo de los transformers.Y a partir de ahí ha sido replicar un poco lo mismoy meterle más data center.Hasta que venga alguien y derrumpa.Es el ciclo de la innovación.Lo hemos visto mil veces y volverá a pasar.Llegaremos a máximos locales aquí.Se acumulará mucho poder,pero llegará otro que nadie le va a estar haciendo casoporque todo el mundo va a estar exprimiendo la vacaque han encontrado.Pues como ha hecho pena ahí con Google,de repente, mientras Google está ordeñando,llega un OpenAI y siguiente nivel.Llegará Pepito en los palotes.Después, en 10 años,y sacará el modelo Ratatouille,yo qué sé, que no tiene nada que ver,que está con computación cuánticao su puta madre.Y muy rápidamente, en 2-3 años,se comerá todo el mercado.Pero llegaremos.Justo precisamente el otro díaen una keynote de una hackathonen Berkeley de inteligencia artificialhablaba Andrei Karpathy,fundador de OpenAIy también ha sido director de IAen Tesla y tal.Y ponía una fotode cuando empezaron en OpenAIque estaban en el pisode Greg Brockman y eran ocho.El equipo inicial eran casi todosmuy técnicos y científicos.Ilya Suskever, tal.Estaban allí currando y decíannosotros venimos aquía hacerle la competencia a Googleque tiene70 billonespara gastarse este año en esto.Y ponía la fotoque no eran unosmindundis, pero eran ocho tíosen un piso, uno en el sofá,otro tal, una imagen muy americanade esta típica startup.Pero sí, al finalhabía unos que se habían enganchado allíen un temay venían estosmucho antes de los transformers y tal.Porque OpenAI tiene una historiade haber intentadovarias líneasy luego se han enganchado todos los transformerscomo todo el mundo, porque esto era una cosamuy prometedora.Y como tú dices, pues llegará otrocuando nos enganchemosque romperá la baraja.Hay voces, como está Jan LeCunque hablan deque deberíamosplantearnos ya otras líneas.No sé el Metaque también hacebastantes cosas con LLM y talsi se están planteando en seriocon bastante presupuesto otras líneashacen alguna cosita y tal, pero no séun tema de volúmenes. Pero a mí, ya te digolo que más melo que más me parece que frena un pocola innovación es que se cierreel conocimiento, que no se publique.Pero bueno, cambiará.¿Nos llevará esto a la AGI?I believe it, segúnMark Solmsen cinco años tenemos máquinas que sienten.Lo que está claroy esto lo decía tambiénAndrej Karpathy en esta misma charlaestá muy bienes que nosotrosestos sistemas van a seguir avanzandoy van a estar dentrotenemos que aprender a interactuarcon ellos.Eso a decir quetengan conciencia, a mí intuitivamenteme choca bastante.en relación a cómo es nuestra interacción con las máquinas.Decía que un escenario posible es que eso no se vea.Es decir, ponía varias imágenes y una era una típica imagen futurista,donde todos son robots y hay un robot y una persona de la mano y cosas por el estilo.Y hay otra donde la gente vive en una especie de parque natural, hay animales y tal.Y hay algunos indicios de que hay tecnología,de que algún animal pueda no ser real o alguna persona y tal,pero es como que hay más armonía.Y él decía que la forma en la que diseñamos ese futuro depende de nosotrosy que debemos intentar tender al futuro que queremos tener,no al que nos condicionan los acontecimientos y no podemos hacer nada.Depende de nosotros por completo.Y para eso hace falta un esfuerzo consciente en construir una intencionalidady también audacia, efectivamente.Pero vuelvo a lo de antes.Desde mi punto de vista, no va a haber un único futuro objetivo,sino que diferentes culturas en diferentes sitios van a tirar hacia futuros distintosy seguramente eso es lo que nos va a hacer difícil llegar a esa armoníaque estabas comentando, a ese Horizon Zero Dawn que estabas describiendo según te escuchaba hablar.Sí, a ver, en Horizon Zero Dawn el mundo se ha ido a la mierda, pero...Sí, pero estaba viendo ahí la gente en el parque natural, animales que eran máquinas, en fin.Pero bueno, a ver, si quieres hablar solo de Occidente, vale.Pero que a final nosotros tenemos un escenario en el que esto no es una cosa que...A ver, la inteligencia artificial no es una tecnología extraterrestreque nos hayamos encontrado y que se va a poner a evolucionar y no sabemos hasta dónde va a llegar.Eso si me dicen las impresoras, sí, eso sí.Pero la inteligencia artificial no.Entonces es una cosa que hemos creado nosotros y que la hacemos desarrollarse nosotros.Entonces yo creo que nosotros podemos decidir hacia dónde la llevamos, ¿no?Esta visión catastrofista sobre que en un momento dado vamos a perder el control,se va a llegar a la singularidad donde las máquinas hacen otras máquinasy esto ocurre a una velocidad tan grande que escapa totalmente de nuestro control,está tan por encima de las expectativas reales de,oye, vamos a simplificar la definición de lo que es sentir para poder decir que una máquina siente.Bueno, eso está muy por debajo de decir que de repente van a tomar el control.Me parece una cosa tan lejana y tan especulativa que yo creo que deberíamos centrarnos en decir,oye, cómo queremos que esto nos aporte y estar interactuando con este tipo de tecnologíaporque se puede hablar perfectamente de horizontes de cinco años, de aquí a cinco años,y ver si eso es posible o no.Pero hablar de estos temas siempre es muy bonito también.Y muy veraniego.Y muy veraniego, efectivamente.Muy de cerveza, sí.Sí, que es lo que me está apeteciendo ahora mismo, después de dos horas aquí hablando.Así que, bueno, si os parece nos vamos a tomar una cervecita.Emplazamos a nuestra audiencia dentro de las tres semanas.Volveremos a estar por aquí.Seguro haremos una tertulia más mínimo antes de agosto.Y luego ya se verá.Porque el mundo está muy loco y a lo mejor la IA ha tomado el control.Pero a finales de julio haremos otra tertulia, eso seguro.Recordamos a los que habéis llegado hasta aquí que tenemos una newsletter,tertulia.manuel.dios.Podéis suscribir y ahí estarán todas las noticias,que son unas cuantas que nos hemos dejado en el tintero y no nos ha dado tiempo a hablar.Así que nada, ¿tenéis algo más que queráis comentar?¿Algún cierre?Ya yo creo que es suficiente cuñadeo por hoy.Y vamos a dejar a esta gente, esta pobre gente que nos está escuchando,que se meta en la playa, por ejemplo.Sí, o que se despierta de la siesta para darse un chapuzón.Es buena hora para darse un chapuzón ahora después del calorazo en la tumba.Es buena hora para despertarse.Esta noche hay partido de la Eurocopa.Mucha gente cuando veáis este audio ya sabréis el resultado.Nosotros os habremos esta noche.Así que nada, los que vayáis a ver el partido y estéis en directo, pues...¡Vamos España!¿España contra las Inteligencias Artificiales?Peor, España-Francia.Para nuestros seguidores de Latinoamérica, pues que la Copa America les vaya bien.Eso es.Sea de donde sean.Así que nada, mucha suerte a todos, incluso a los franceses.Vamos a ser deportivos y nos vemos en la siguiente tertulia.Un abrazo.Hasta luego.Un abrazo.Hablábamos antes de hasta qué punto una persona debe saber diferenciar cuál es la frontera donde ella aporta valory dónde aporta valor un asistente inteligente y tal.Estos sistemas sí que están aquí para hacer este tipo de cosas.No tanto para sustituirnos como especie seguramente, pero sí para cambiar mucho el panorama.Y lo que sí depende de nosotros, de los humanos, es cómo diseñamos cómo es el futuro.
Leer más

Escúchalo ahora en

Últimas publicaciones del blog

Domina el video marketing: impulsa tus contenidos

Entendiendo el video marketing El video marketing se ha consolidado como una p...Leer más

Podcast elevator pitch: 3 razones para crear el tuyo

Hoy vamos a hablar de algo esencial para todos los podcasters: el podcast elev...Leer más

¿Cómo promocionar un podcast? La guía definitiva

Entendiendo a tu audiencia de podcast Producir tu podcast no es suficiente. Si...Leer más

¿Cuáles son los podcasts más rentables?

Introducción El podcasting ha crecido mucho en los últimos años, pasando de se...Leer más

Estrategias de marketing de influencers: Guía completa

Introducción al marketing de influencers El marketing de influencers se ha vue...Leer más

¿Cómo empezar un podcast sin audiencia?

Introducción Lanzar un podcast puede parecer complicado, sobre todo si no tien...Leer más