Avatar

#29-B: ¿Se está estancando la IA?

La Tertul-IA: Inteligencia Artificial y más

Presentado por

La TertulIA

Tertul-IA de actualidad sobre Inteligencia Artificial. En esta edición reflexionando sobre cómo la IA parece estar llegando a una meseta de rendimiento.

Suscríbete a la newsletter de la Tertul-IA y nuestro podcast en https://tertulia.mumbler.io/

Puedes escucharnos en:

- Apple Podcast: https://podcasts.apple.com/es/podcast/la-tertul-ia-inteligencia-artificial-y-m%C3%A1s/id1723736263

- Spotify: https://open.spotify.com/show/2trIE4WvCf3AWzNaLodxC4?si=d0722b25067247e3

Transcripción

De lo que íbamos a hablar hoy en la cara B, o de lo que vamos a hablar hoy, es sobre una cuestión,lo hemos ido introduciendo a lo largo del programa, como algo que hoy en día empieza a ponerse sobre la mesaporque por un lado da la sensación de que algo está pasando, y por otro lado empiezan a salir estudiosque respaldan esta opinión. Y es concretamente el tema de que estemos alcanzando o estén alcanzandolos sistemas de inteligencia artificial generativa, y no voy a decir LLM porque en muchos casos estamoshablando de modelos de generación de imágenes y de vídeo, que son problemas muy difíciles,y no necesariamente basados en la misma tecnología, pero sí que son IA generativa.Entonces hablamos de IA generativa. Están alcanzando, como digo, una meseta de performance.¿Y a qué nos referimos o a qué se refieren estos estudios con una meseta de performance?Pues básicamente, por verlo de una forma bastante intuitiva, pues a que...Performance, perdón, antes me has llamado la atención, Frankie, por decir performance, vamos a decir rendimiento.A partir de ahora puedes decir performance.No se enfade, Juan Gómez Jurado. Entonces, decimos meseta de rendimiento.Entonces, ¿qué es una meseta de rendimiento? Pues bueno, todos sabemos lo que es una curva elevada de rendimiento,que es lo contrario, ¿no? Una pendiente grande de rendimiento hacia arriba, quiero decir.Es lo que vivimos durante el pasado año, en 2023, cuando explotó la GPT, se liberó al mundo, como si fuera Skynet.A finales de 2022, en 2023, tuvo todo ese impacto de, oye, aquí hay una tecnología que hace cosas que antes no se podían hacer.Y además, cada vez van saliendo, por un lado, aplicaciones nuevas de eso, y por otro lado salen otros players proponiendo sus soluciones que cada vez van funcionando mejor.Y hablo de echar GPT como ejemplo, porque aquí, como digo, podemos hablar de modelos de difusión también para generación de imágenes de vídeo y modelos de tratamiento de audio.Entonces, la curva, la pendiente de la curva del rendimiento durante ese año es brutal.Y las expectativas, normalmente, lo que se llama el hype, siempre favorece un sesgo a que se piensa que esa curva se va a mantener en el tiempo.Es decir, el rendimiento va a seguir subiendo de la misma forma que ha venido subiendo recientemente.Esto, por supuesto, tiene su incidencia en las inversiones que se hacen, por ejemplo, en las decisiones que se toman.En general, en cuanto a las expectativas.Una peseta es que todo eso se estanca.Nosotros hicimos aquí un programa dedicado a expectativas de futuro donde hablábamos del invierno de la inteligencia artificial.Bueno, pues esto o esta es una de las razones que pueden provocar un invierno.¿Por qué? Porque se genera una expectativa muy alta y de repente el sistema, pues no es que se estanque, pero como que ese rendimiento se aplana mucho.Entonces, ¿qué es lo que ha pasado? Pues que algún estudio reciente ha demostrado que algunos modelos multimodales requerirían cantidades exponenciales de datos para mejorar su rendimiento.Siempre esto se suele medir en tareas cero-shot.Aquí dejamos el comportamiento este de agentes iterativo y tal, que son cosas que se hacen por encima de lado.Y lo que nos fijaríamos para poder medir el rendimiento adecuadamente es en tareas cero-shot.Que básicamente es, le doy un prompt y obtengo un resultado.Bueno, pues para estos estudios lo que dicen hallar es que los modelos necesitan cantidades exponenciales de datos.Es decir, que llega un momento en el que la mejora en cuanto a lo que se refiere a los datos con los que se alimenta el modelo ya no es sensible o no es posible con los datos de los que disponemos.Esto por ilustrarlo un poco, aunque este estudio del que hablo son modelos multimodales, se fijan mucho en imágenes y tal.Pero por ilustrar un poco como un ejemplo muy sencillo.Imagínate que ChatGPT está entrenado con todo internet o con la mayor parte de la información que hay en internet.Y si tú quieres subir el rendimiento de ChatGPT, la poca información que se genera adicional en comparación a lo que ya has utilizado no es suficiente.Porque necesitarías varias veces internet cada vez que lo reentrenases para que efectivamente subiera su rendimiento.No es el caso de ChatGPT, pero pongo el ejemplo para que se entienda.Como que ya me he quedado sin datos porque no puedo disponer de más.A no ser que los generasen las propias IA y eso también tiene sus problemas energéticos, el almacenamiento, etc.Pero realmente, perdona que te interrumpa aquí, realmente ya los están generando como parte de los conjuntos de entrenamiento.Porque mucho de lo que hay en internet está generado por los LLMs.Ocurre, y ese es un factor crítico, es que hay falta de nuevos datos generados por humanos.Yo no he encontrado un estudio como tal que mida el impacto de los datos generados por humanos en este contexto.Pero bueno, se entiende que el rendimiento al que hemos llegado ha sido gracias a que han podido aprender de datos generados por humanos.Y los humanos pues ya o bien los generamos utilizando IAs o bien los generamos nosotros pero no al ritmo que requeriría de producción para alcanzar este siguiente nivel de performance.Y estas son un poco las razones que se grimen aquí o los porqués para entender por qué se llega a una meseta de rendimiento.Y ahora yo os pregunto, y ya me callo de una vez, ¿vosotros habéis notado una meseta de rendimiento?Usando en el día a día, hablo de estudios científicos y lo voy a poner en el chat también si queréis.¿Habéis notado una meseta de rendimiento utilizando IA generativa?Lo que yo noto está más relacionado con las aplicaciones y los usos que con el rendimiento en sí.Sí que he notado mejoras, lo hemos comentado muchas veces.Es un tema cualitativo porque nosotros no llevamos un benchmark aquí en la cabeza que te permita comparar de forma adecuada.Pero bueno, por intuición y por resultados de las consultas, por la interacción y todo eso, yo he notado desde luego, desde hace un año y medio que esto empezó, muchísimas mejoras.Creo que esa parte sí. Pero claro, volvemos a lo que hemos dicho otras veces.Ya no te vale con hacerle una preguntita y ya está.Y si cada vez que le haces una pregunta tienes que iterar 200 veces, como nos pasa ahora, hasta que llegas a la respuesta que tú quieres,al final estás consumiendo también bastante tiempo.Lo que he hecho de menos es justo esa parte de que te dé una utilidad mayor.De que ya puedas conseguir una respuesta más cercana a lo que quieres con esa primera consulta, bien hecha si quieres.O no sé, me hace falta más esa parte que está muy relacionada con lo que hablábamos en la carada también.De soluciones a los problemas que vayan un poco más allá de lo que es el propio LLM.Más allá de eso, no sé si soy capaz de notarlo. No sé tú, Korti, ¿cómo lo ves?Yo lo que no diría tanto, no sé si me seta, pero estoy un poco con Antonio.Por ejemplo, a nivel de conversación, no hay grandes avances.Yo creo que en los últimos meses venimos acostumbrados a que en esto de la IA, el año pasado cada mes era un avance o cada dos meses notabas algo.Yo sí que noto que a nivel de usuario el cambio no es tan constante.Hay cositas mejor y demás, pero de repente esto no funciona muchísimo mejor.También te lo he dicho, porque funciona relativamente bien para muchas cosas.Ya hemos llegado a un punto donde tanto la generación de texto, cuando conversas con ChattyPT por ejemplo, como generación de imágenes.Y ahora incluso últimamente generación de vídeo empezamos a tener un nivel de calidad bastante bueno.Quizás el incremento, un 1% más o un 1% mejor, quizás que no se note.No se note tanto como antes, que venías de la mierda y cualquier cosita ayudaba.Yo creo que por ahí sí que va a haber un… me parece que tiene sentido que haya un estancamiento, aunque sea a nivel perceptual.También estoy de acuerdo contigo Frank, que luego hay muchas cosas en capa de aplicación que pueden hacer que te solucionen mucho más la vida.Tanto a nivel de integración de estos sistemas en otras herramientas, como a nivel de darle tres vueltas y que sean capaces de iterar alguna cosita.Hay mucho que hacer en la capa de aplicación ya con los modelos existentes, incluso para aprovechar muchísimo más el valor que puedan aportarnos.Y a mí sí que me tiene sentido, que al final tal y como se entrenan a día de hoy estos modelos, que es con la información disponible, pues lo hemos visto y lo hemos ido contando en muchas tertulias.Pues OpenAI está llegando a acuerdos con muchos sitios para tener contenido de forma exclusiva.Cada una de las compañías Google, os decía que ya han empezado a entrenar con datos de YouTube.Al final llega un punto donde ya la poca diferenciación que pueden tener unos modelos con otros a nivel de datos de aprendizaje, ser capaz de acceder a una fuente de información muy grande,pero específica que nadie más pueda acceder y tampoco quedan tantas.Teniendo en cuenta lo que hicimos antes de datos de GDPR y demás, que es que casi antes han entrenado con todo lo que había llevándose por delante todo lo que hubiera.Yo sí que creo que vamos a llegar a esa meseta donde al menos perceptualmente no va a haber grandes mejoras, salvo que haya importantes cambios en los algoritmos.Al final hablamos que cada semana hay un nuevo lanzamiento, hay un nuevo modelo que alguien lanza, que es más, como decíamos con Elon, con más datos, con más parámetros, con más de todo.Pero todo lo mismo, todo lo mismo con más cosas, con un poquito más de datos, con un poquito más de lo que sea.Y también lo vamos viendo cuando hay todas estas comparativas de modelos y demás que las mejoras luego incrementales de los que van apareciendo tampoco son, incluso sobre el papel,tampoco son diferencias tan grandes. Estamos jugando a ver quién la tiene un poquito más grande que los demás, pero no son estos saltos de los modelos que veíamos hace un añodonde de repente decías, ostras, es que eso es muchísimo mejor.Pensar nada más también en la famosa ley de Pareto que se aplica absolutamente a todo y que puede ser discutible, pero siempre se dice en el caso del desarrollo del softwareque el desarrollar el 80% de tu solución, de tus funcionalidades, te lleva al 20% del tiempo. Ese 20% final, que es lo más complejo, te lleva al 80%.Creo que quizá con otra medición, pero creo que seguramente en el fondo estamos ahí. En el sentido que os decía antes, ya realmente funciona tan bien, aunque no sea perfecto,que cualquier cambio para percibirlo ya es difícil. Y sin embargo, seguramente hace falta todavía muchos recursos, mucha inversión para poder generar esos cambiosque estabas diciendo tú, Corte, 1% más, que se pueda notar. Yo ya os digo, para el día a día, para la mayoría de las cosas, me declaro incapaz de notar el avance,pero estoy seguro de que lo hay. Tengo que pensar que sí.Sí, es un avance cada vez más pequeño. Es decir, lo que te aportaba al principio, que es una cosa que yo tenía que mandar este informe todos los jueves por la mañanay ahora me he olvidado de hacerlo. Eso al principio te aporta mucho y luego ya lo notas menos.Yo creo que hay dos cosas. Por un lado, los grandes modelos o los modelos de inteligencia artificial generativa van creciendo en cuanto a rendimientoy tienen sus métricas, que es un framework de métricas que ya se sabe que tiene sus carencias, pero se irá evolucionando.Y ahí, como dice Corte, las diferencias son cada vez menores, pero hay una batalla y eso sigue creciendo a otro ritmo.Y eso tendrá que ver con los datos y tendrá que ver con la capacidad computacional y tendrá que ver con que se le han apretado mucho los tornillos.Pero claro, es que un modelo de esos no está diseñado para ser una IA que solucione absolutamente todo.Ni puede, ni debemos otorgarle la responsabilidad o, desde nuestro punto de vista, pensar que tiene la capacidad de hacer algo a lo que nunca va a poder llegar.Ahora entramos desde mi punto de vista en una fase en la que sabemos que tenemos esta tecnología, conocemos las capacidades que tiene y entramos en una fase que es más de ver las formas de explotarla de la manera adecuada.Porque tú fíjate, estos estudios se hacen con cero shot. Cero shot es la forma para que lo entienda nuestra audiencia, la que está menos versada en los temas estos.Cero shot es la forma que tiene de usar la IA generativa el 99,9% de la gente, que es yo le hago una pregunta y obtengo una respuesta.Que esa es la forma, el tipo de interfaz que entiende la mayor parte de la gente.Y no te estoy hablando de gente en su casa que diga, oye, me duele la espalda, ¿qué ejercicios podría hacer? Bueno, eso es muy ilícito, ¿no?Sino te estoy diciendo cómo se utiliza esto dentro de empresas, para hacer trabajo y tal, de una manera super naive.Y quizá por eso, porque no estamos evolucionando en la manera de explotar la tecnología, nos creamos que es responsabilidad de la IA de turno mejorar hasta un nivel no sabemos cuál, de manera que yo, haciéndole una pregunta, me solucione el trabajo del día.Existen ya modelos de explotación de la IA un poco más avanzados, y aquí podemos hablar de agentes y de este tipo de cosas, que se sabe que los hacen subir en rendimiento simplemente por la manera en la que se interacciona entre ellos, en la que se les hace interaccionar unos con otros, etc.Y eso sí que lleva a niveles de rendimiento, está demostrado, que lleva a niveles de rendimiento que están next level, y no tiene que ver con que tengo más datos a mano o con el entrenamiento, que eso sabemos que eso sí ha llegado a una meseta, porque es verdad que no hay más datos.Yo creo que esto conecta mucho con las tracciones que hablamos antes de los niveles que plantea OpenAI, de ese nivel 1 y el nivel 2 de razonamiento y el nivel 3 de agentes. Yo me quedo con esos 3 niveles porque creo que cuentan cosas interesantes.El nivel 1 al final es fuerza bruta, es cojo un modelo, fuerza bruta que es la hora, le meto toda la información del mundo, y como tengo un modelo base que es capaz de aprender todo lo que es esa información, pues aprende todo lo que pueda aprender. Pero es eso, es fuerza bruta, es capacidad de cálculo.De hecho, corte, perdona, ni siquiera hace falta eso, podemos hablar de agentes conversacionales basados en reglas, que es lo que se ha venido haciendo hasta hace un año, básicamente.Sí, que estaría casi en ese nivel 0 que ponía, por ejemplo, Pepper de DeepMind, que hablaba de un nivel 0 que es sistemas, bueno, que bueno, llámalo, depende de cómo llames inteligencia, pero son reglas que en ese caso, esos sistemas sí que simulan poder, o parece que eso ha sido la conversación, es verdad que en cuanto te metes a putearles, le encontrabas un poco las cosas que no están cubiertas por las reglas.Con los LLMs actuales tienes un sistema que puede parecer más inteligente porque es capaz de mantener una conversación lo más abierta posible y responder un montón de preguntas con las deficiencias que tiene, a veces hablamos de que se inventa cosas y este tipo de cosas.Pero yo sí que creo que estamos encontrando una meseta de los modelos actuales, es decir, los modelos actuales llegan a una meseta, ¿qué es lo que podemos hacer para resolver los siguientes niveles?OpenAI ya plantea cuál es su forma de hacerlo, habrá otra gente siguiendo otros enfoques, OpenAI dice, venga, voy a crear un modelo capaz de razonar para ser capaz de descomponer problemas grandes en problemas más pequeños y a partir de ahí evolucionar hacia un modelo de agentes donde cada agente sea capaz de resolver su parte muy bien y lo pueda integrar, que es, si lo queremos ver, es como un proceso muy humano, ¿cómo hace un humano para resolver un problema complejo?Pues intenta descomponerlo, divide y vencerás y ataca con conocimiento específico con una de esas partes y muy seguramente haya otra gente que acabe encontrando otra forma de abordar este problema, pero es una capa de abstracción superior, es como nuestro cerebro, nuestro cerebro tiene distintas partes, tiene la memoria, pues no puedo atacar todo con memoria, no puedo atacar todo con razón, no puedo atacar todo con intuición, al final también nuestro cerebro tiene como una metacapa, no sabemos cómo,pero que es capaz de entender cuándo tiene que hacer caso la intuición, cuándo tiene que razonar, cuándo tiene que tirar de memoria, yo creo que eso es lo que vamos, es una capa por encima de lo que hemos hecho que sea capaz de orquestar distintos tipos de inteligencia.Claro, lo que pasa es que, ¿por qué queremos atribuirle esa responsabilidad a la IA generativa? Pues porque las tecnologías basadas en transformers son las que nos han traído hasta aquí, son como las que han hecho que se pegue el salto, digamos, grande en cuanto a impacto en la sociedad y entonces ya por defecto pensamos que eso,porque yo oigo mucho eso de hay que desbloquear el auténtico potencial de los LDMs, bueno, a lo mejor los LDMs ya no tienen más potencia y lo que tienen que hacer son otras cosas y por eso yo creo que empiezan a salir este tipo de iniciativas que se basan en cosas, como ya hemos dicho antes, en las que ya trabajaron estas compañías,lo que pasa es que tuvieron grandes éxitos en su momento, a ver, hay inteligencias artificiales no basadas en tecnologías de este tipo que han hecho grandes avances científicos, por ejemplo, AlphaFold.Por no decir, bueno, es que al principio como siempre lo aplicaban a juegos, esto viene de la época de Deep Blue y todo eso en el ajedrez, pero bueno, porque ese es un entorno en el que es muy fácil experimentar y tal, pero bueno, que también son grandes avances, es decir, conseguir una cosa que solo podían hacer las personas, conseguir que lo haga mejor una IA pues sin que nadie lo enseñe pues ya es una cosa importante.Antes de los Transformers lo que estaba de moda era el Deep Reinforcement Learning, que era combinar el Deep Learning en cuanto a lo que es el camino hacia la AGI, lo que estaba de moda era el Deep Learning, pero el Deep Reinforcement Learning era una técnica de aprendizaje automático que combinaba esto de aprendizaje por refuerzo con Deep Learning y ahí se han hecho cosas guays.Pues sabes que con eso puedes explotar unas ciertas capacidades, sabes que con los LLM puedes explotar otras.Seguramente lo que hace falta es eso, como dice Corti, el orquestador, quien decide a qué tarea, a qué sistema le doy qué cosa, cómo se comunican entre ellos y eso te lleva a un problema mucho mayor que es el de la, este problema de la orquestación es uno bastante particular.Por ejemplo, si hablas de cómo somos los seres humanos trabajando en equipo, se sabe que somos más inteligentes individualmente, es decir, en el momento que te juntas con varios no eres capaz de llegar a las mismas conclusiones, capaz de hacer otras cosas, pero no eres capaz de focalizarte en una única tarea, como que todo se complica.Y luego además no somos capaces de gestionar grupos más allá de un número muy pequeño de personas de una manera eficiente, es decir, es como que la inteligencia se vuelve peor cuanta más gente hay involucrada.No sé si es una regresión a la media o una sincronización al más lento o si seguramente es porque, esto también pasa con grupos de gente muy inteligente.Y claro, eso somos nosotros con las capacidades que tenemos. O sea, imagínate el reto que es integrar sistemas que no son capaces de tomar decisiones y donde las interfaces tienen que estar clarísimas y si no cogen y dan un fallo y se quedan parados.Que eso pasa con los sistemas de software, ¿qué vamos a hacer? Pues hay un reto muy grande ahí. Pero lo que parece claro es que, y esto lo dice mucho ya el LeCun, lo que parece claro es que por el camino de los LLM vamos a llegar a un sitio que es un callejón sin salida.Es decir, eso tendrá un techo y a partir de ahí hay que explorar otras cosas porque por ahí no vamos a poder avanzar más. Es lo que hay.Me gustaría compartir pantalla con una, aquí lo tenemos efectivamente, un post que ponía Jordi Linares hace, no sé, hace un mes aproximadamente.Para que la gente que nos está viendo, y pondremos también enlace para que el resto lo podáis comprobar, se haga una idea de esa limitación de los datos a la que estamos llegando.Estamos hablando de los datos que se utilizan para entrenar los LLM. Estamos hablando, estamos viendo que en el año 2020 estábamos en torno al, eso sería billón de tokens, ¿no?Diez a la doce aproximadamente sería como billón de tokens que se utilizaban cuando en internet se calcula, o el stock de data, no vamos a hablar solo del internet, el stock de datos que hay, la cantidad de datos disponibles para entrenar, pues hablamos, esta es una gráfica logarítmica.Estamos hablando de diez a la, entre diez a la catorce y diez a la quince, o sea, hablamos de miles de millones, ¿no? Por decirlo así.Las expectativas son, que, bueno, ha ido creciendo. En 2024 nos situamos ya aproximadamente en decenas de billones, ¿vale? En diez a la trece.Las expectativas son que para el año 2028 más o menos, alrededor, ya se estén utilizando más o menos todos los tokens que hay disponibles para entrenar.Y si no es en el 2028, es en el 2030 o un poquito más allá. Por tanto, si hemos llegado al límite, no vamos a poder mejorar absolutamente para nada con más datos.Y el hecho de que haya más datos puede ser discutible que sea bueno o malo, porque podríamos entrar a hablar de la calidad de los datos, los sesgos, todo lo que hemos hablado un montón de veces.Pero, claro, ya nos vamos a ese punto que estáis comentando de, y podemos dejar de compartir si queréis, de cambio de paradigma necesario.Uy, he echado a luz, eso parecía.Me has dejado de compartir a mí.Tenemos que hablar de un cambio de paradigma que es completamente necesario, que yo creo que lo hemos comentado muchas veces también, ¿no?Que ya afectó a la programación.Bueno, con ensamblador no se podían desarrollar las mismas aplicaciones que se pueden desarrollar a día de hoy porque hemos subido varios grados de niveles de abstracción.Y eso ha requerido cambios en la manera de programar, ¿no?Cambios en los lenguajes, cambios importantes que nos han traído a todo esto que somos capaces de hacer hoy.Con lo mismo tiene pinta de que vamos a llegar a mejorar, como estamos diciendo, un porcentaje.Y luego hay que ver también hasta qué punto son rentables estos avances, ¿no?Hasta qué punto el invertir para llegar a esos 10 a la 15 tokens frente a los 10 a la 13 que estamos ahora.De cara a una empresa con todos los costes que conlleva, y lo hemos dicho antes, temas energéticos y temas de tarjetas y todo lo que sea, ¿no?Invertir ahí para la ganancia que podemos esperar es realmente suficiente.O si va a llegar un momento en el que las empresas van a parar de invertir ahí porque esa ganancia, ese impacto ya no va a ser tan importante.Y mientras tanto, o bien ocurre algo distinto, ese cambio de paradigma, o cambio de la manera, como hemos dicho, que les surjan.Los agentes no son un cambio de paradigma en cuanto a los LLMs, pero sí una otra capa por encima otra vez, ¿no?Estamos subiendo en un nivel de abstracción. O vienen esos cambios, o las sensaciones que nos quedamos ahí un poquito parados.Y dicho esto, repito lo que he dicho al principio, lo que tenemos ahora es cojonudo.O sea, no lo soñábamos hace dos años ni de coña.Aquí está un poco también, más allá de estos niveles de abstracción que hemos hablado, esto conecta mucho con Jan LeCun,que viene tiempo diciendo también que una forma de conseguir una inteligencia más potente que los LLMs es hacer que las IA's aprendan de lo visual.En final, él hablaba en esta famosa entrevista con Les Fridman, que la verdad que estaba muy bien, hablaba de que la densidad de datos del texto es relativamente baja.La capacidad a la que aprendemos del texto es baja. Me acuerdo siempre que dice que un niño de cuatro años ha procesado más información visual que la cantidad de información totalque va a ser capaz de aprender o que somos capaces de aprender con un sistema del LLM.Yo creo que va a haber varios ejes. Uno es esto de decir, oye, ¿cómo aprender de datos que no sean texto?Porque esto abre un melón muy interesante, entre otras cosas porque al final tú puedes integrar ya inteligencia sobre robots y que los robots exploren el mundo.Ya no solo va a ser los sensores que tú puedas tener día a día, sino que tú puedes crear sistemas que interactúan con el mundo y que vayan aprendiendo.Y en el mundo aprendes muchas cosas, como aprende un niño, porque ves cómo se mueven otros objetos y eres capaz de emprender a extrapolar leyes de la física,eres capaz de extrapolar muchísima información y eso es un melón muy importante.Y a lo mejor ahí hay un eje, y luego lo que hemos dicho, las distintas capas de abstracción.Yo me imagino un futuro donde acabaremos teniendo la inteligencia del lenguaje, la inteligencia visual, la inteligencia de distintos tipos de inteligencia,y encima distintas capas por encima capaces de regular y de extraer conclusiones a partir de todos estos datos.Y ahí sí que ya nos estaremos acercando a cómo pueda funcionar de verdad la inteligencia humana o más animal.En animales además que tienen en cuenta todas estas variables.Sí, y luego está el tema de que cuando hablamos de los LLM, este mundo en el que estamos ahora, nivel 1,cuando hablamos de inteligencia hablamos de la capacidad que tienen de dar una respuesta que se pueda parecer a lo que hubiese escrito un humano.Pero es que la inteligencia es mucho más que eso. La inteligencia es tomar decisiones, por ejemplo, o tener inquietudes.Entonces yo creo que en estos modelos, esto ya es un poco filosofía, pero en estos modelos que se plantean siempre las compañías que persiguen la AGI,se están basando mucho en las capacidades más técnicas que se pueden potenciar en un espacio determinado.Si es el del texto, pues el texto, hasta el techo que se pueda alcanzar. Pero es como que hay falta algo, ¿verdad?Y quizá eso que falta y que tiene que ver con lo que nos hace humanos a nosotros, con la inquietud, con la emoción,con cosas que son menos... Muchas veces no son menos tangibles, porque tangibles son, pero son menos medibles.O no sabemos, digamos, explicitarlo de la misma forma que una cuestión más técnica o más matemática.Quizá esa parte sea la que salve las barreras para llegar al siguiente nivel.Dentro de lo que nosotros pensamos, porque siempre intentamos asimilar la IA.Tú has hecho muchas analogías con el sistema perceptivo humano, con el funcionamiento del cerebro humano,de lo que sabemos muy poco, pero bueno, algo sabemos, ¿no?Que percibimos, que el cerebro lo interpreta y que emite una acción y tal, y la IA clásica se basa en esto.Pero claro, si nosotros no desarrollamos en estos sistemas todo eso, quizá el techo esté ahí.No tanto en aprender de datos, porque aprender de datos es una cosa de machine learning.Es decir, es un sistema que hemos encontrado para generar modelos.Bueno, pues muy bien, pero las personas, las inteligencias de verdad no somos así.Aprendemos de datos, es una pequeña parte de lo que hacemos.Muchos datos los traíamos ya, porque los ha codificado la evolución.El entorno en el que nos movemos, como tú has dicho, el tema sensorial es importante.Y sobre el tema sensorial también hay que decir que las IAs ven lo que nosotros les dejamos que vean,pero nosotros tampoco vemos la realidad.Nosotros vemos lo que nos dicen nuestros sentidos.Entonces, bueno, quizá sea un tema relacionado con la percepción,pero yo también creo que puede tener que ver el hecho de que seamos capaces de que se acerquen más a nosotrosy por lo tanto puedan hacer tareas que solo podíamos hacer nosotros.Puede ser algo más profundo que ser simplemente capaz de responder a una pregunta o a una petición.Creo que eso va mucho más allá.Eso es un buen melón.No sé si en nuestra vida lo tendremos claro.Si una inteligencia artificial es más inteligente por tener, por ejemplo, emociones o por ser consciente.Tú elimina eso del humano.Elimina de una persona.Cuando hablamos, por ejemplo, de...Ya estamos siempre con la ciencia ficción.A mí me pasa por lo menos.Pero cuando hablamos de esta idea de descargarte a la máquina,descargar tu mente y renunciar a tu cuerpo, porque el cuerpo muere,pero tu mente, que nosotros entendemos mucho que nosotros somos nuestra mente,y hay mucha filosofía en contra de esto.El cuerpo también es...Porque sin el cuerpo la mente no se puede conformar tal y como es.Tú te descargas ahí.Imagínate al humano, en vez de darle capacidades a la inteligencia artificial para desarrollarla más y salir de esa meseta,vamos a hacerlo al revés.Cogemos al humano y le empezamos a quitar cosas.Un humano funcional, adulto,con estudios.Y le empezamos a quitar todo menos sus estudios y su capacidad de razonar y resolver problemas.Pero le quitas la intención, las emociones.¿No conocéis a gente así?¿Algún funcionario hay?Claro.Todo el mundo tiene algo de todo, pero hay gente que tiene muy bajitos los niveles de...Quiero que me pasen cosas.Quiero...Tengo iniciativa.Tal y cual.Quítale a cero eso a una persona.¿Tú quieres una inteligencia artificial que sea así?Es que ahí creo que afecta dos cosas.Puede afectar la inteligencia, también puede afectar la capacidad de supervivencia.De hecho, no sé hasta qué punto las emociones y todas estas cosas más humanas son...¿Algo necesario para la supervivencia humana o realmente aportan a la inteligencia?Y me parece muy interesante el punto, pero desde mi punto de vista no tengo ni idea.Porque hay una parte que te viene a decir, en el fondo, sin alguna de estas cosas,los humanos podríamos hacer mucho más de lo que hacemos.Porque al final también las emociones, sentimientos y emanos llevan a sitios a perder mucha energía,en cosas bastante absurdas.Porque estamos regidos por cosas bastante irracionales,que tienen mucho que ver con cómo nos sentimos,con nuestro cansancio o no cansancio, si hemos descansado o no hemos descansado,si me han mirado bien, me han mirado mal.Y eso es el 80% de nuestro tiempo y nuestra vida.Yo a veces pienso, oye, si no tuviéramos todo eso,pero tuviéramos la capacidad de supervivencia humana,oye, si no tuviéramos todo eso, pero tuviéramos la capacidad de inteligencia,¿seríamos más inteligentes?Y a lo mejor no lo seríamos simplemente porque no tendríamos motivos para sobreviviry por lo tanto no hubiéramos tenido motivos para llegar hasta donde estamos.Nos hace falta de nuevo aquí el libro de Arrabales.De momento no lo vamos a mencionar, pero todos estos temas que tratan ahí,y bueno, ya los dejaremos para otro momento.Pero eso que acabas de decir, Corti, bueno, habéis hecho muchas cosas interesantes,pero eso que acabas de decir, claro, tú mismo con tu inteligenciay con tus circunstancias, seguramente en las mismas circunstancias,dos mundos paralelos, reaccionas distinto.Porque hay una componente de RNG como los videojuegos,una aleatoriedad ahí que te puede hacer que un día hagas esto,el día siguiente a la misma situación hagas algo distinto,se ve mucho en los deportistas, en los partidos de tenis,por ejemplo, ahora que están aquí los Juegos Olímpicosy ayer estábamos viendo a Nadal y a Alcaraz.Joder, ves puntos clavados donde lo tiran a un lado, lo tiran a otro,no es solo que lo den bien o mal, sino que circunstancias similareshacen cosas distintas. Esa componente de aleatoriedadhace que el resultado sea distinto. Entiendo que es parte de la inteligencia también.Si a eso le unes tu estado anímico, que estés más cansado o menos cansado,más enfadado o menos enfadado, cosas que te hayan pasado,pues todo se ve afectado y eso lleva a lo que estabais comentandode que en el fondo el contexto lo es todo.Y el contexto es algo que no le estamos dando a la máquina.Le estamos dando un texto sin el con, le estamos dando algunas imágenes,a algunas les podemos dar un vídeo, pero desde luego cuando nosotros,porque decíais que la inteligencia ante otras cosas es tomar decisiones,que las máquinas deberían tomarlas, cuando nosotros tomamos las decisioneslas tomamos o no?¿le haría más o menos inteligente?Yo creo que le haría más inteligente según los parámetros de inteligencia por los quese define el ser humano. Porque la evolución nos ha dado esos mecanismos, entre ellos lainteligencia, pero es que la inteligencia lo rige todo. La inteligencia de emocionesson dos cosas para mí, son indivisibles. O sea, no puede existir una cosa sin la otraporque la inteligencia es tal.Las emociones son mecanismos que nos han ayudado a llegar hasta aquí.Claro, pero son mecanismos evolutivos. Desde un punto de vista son mecanismos evolutivosque te han ayudado al desarrollo. Llega a un punto de desarrollo esos mecanismos sonnecesarios porque ya estamos viviendo en otros ámbitos. Por ejemplo, nos pasa con la alimentación.Ahora mismo estamos viviendo un momento de la historia donde tenemos mucho más accesoa calorías rápidas palatables y demás de lo que estamos acostumbrados evolutivamente.Y esto ya es un problema. Ha pasado de ser, oye, el consumir calorías tal era positivoporque me daba energía, me permitía sobrevivir. Ahora, de repente, el tenerlas disponibleses un problema. ¿Puede pasar que a partir de un punto las emociones nos resten y nonos sumen? Bueno, lo que sigue pasando es que si dejas de comer te mueres. Eso no lohemos superado. Pueden aparecer patologías nuevas derivadas de cambios en el entornoy las tendremos que controlar. Y los humanos somos expertos en cambiar nuestro entornoen nuestro detrimento. Nos estamos puteando, como siempre. Pero lo que nos hace decir quehay que tomar decisiones con esto es que queremos sentirnos bien y sobrevivir y tal.Porque al final, yo me acuerdo, y aquí ya me voy de la ciencia ficción a la fantasía,me acuerdo cuando leía yo el libro de Dungeons and Dragons cuando era pequeño y había,¿os acordáis de los Mind Flyers? Estos bichos que tienen como cabeza de pulpo y eran unoscabronazos. Y estos decían que eran muy malos, muy malos. Se dedicaban a comerse a la genteo a transformarla en otros como ellos y tal. Y ellos decían que estaban mucho más evolucionadosque los humanos porque habían superado, hacía ya milenios, emociones como la felicidad,el amor, que eran solo cosas que les lastraban. Y que ellos estaban en un plano muy superiorporque todas esas mierdas se las habían quitado de encima. Pues a mí eso siempre me chocó.Porque si tú de repente te quitas ese tipo de cosas, pues es como que ya por muy inteligenteque seas, por muy capaz que seas, te has quitado la necesidad de seguir aquí.Depende.Yo por eso decía que la máquina, llegando a la meseta, para salir de la meseta hay que desafiarde una manera diferente. Y esa manera diferente yo siempre abogo mucho por el enfoque bioinspiradoporque al final es lo que conocemos. El único ser realmente inteligente que conocemos esel ser humano. Luego hay otros poco inteligentes pero que tienen cierta inteligencia. Son animalesgeneralmente los más parecidos a nosotros o los más inteligentes. Y esa es la inteligenciaque conocemos. Y toda esa inteligencia se ha evolucionado y se ha regido por un sistemaemocional. Entonces, si tú eso lo quitas de en medio, nos quedamos un poco vacíos.Y yo creo que a lo mejor esa es la manera. Y es que el aprendizaje por refuerzo tienemucho que ver con eso. Establezco incentivos para definir nuevas políticas que me llevenal éxito. Quizás si ese sistema de incentivos lo desarrollamos de una manera más inspiradaen cómo somos nosotros, podamos llevar a la IA al siguiente nivel. Esto es muy fácildecirlo.Si podemos inculcarle a una máquina simplemente el miedo al fallo, que es un sentimiento yno sé si es más primario y cuando hay el fallo puede ser desaparecer o puede ser muchascosas. ¿Ya podemos decir que la máquina tiene emociones?Un sistema de aprendizaje por refuerzo tiene un incentivo.Ahí va un poco. Tienes miedo al fallo porque en el fondo...Tú tienes que maximizar una función y entonces las cosas que te alejan de ese máximo son malasy las que te acercan son buenas. Es un incentivo para mejorar. Lo que pasa que es una cosacomo muy narrow normalmente.Lo que pasa es que tradicionalmente los incentivos que vienen con las emociones al final hansido como la chispa que hace que los seres biológicos se muevan. Al final tú tienesun montón de emociones, sentimientos. Tienes miedo para no morirte, para ser capaz de espabilarsi pasa algo. Tienes apetito sexual para reproducirte y perseverar la especie.Hay un montón de cosas que en el fondo es una programación. Es la forma que tiene nuestrocuerpo de programar una serie de cosas básicas para que perduremos. Pero es que con las máquinaslo puedes programar de otra cosa. A mí me parece el punto que dices muy interesante.Creo que el día que seamos capaces de desarrollar emociones en máquinas podremos entender cuáles el rol real, pero también me parece que son un lastre desde el punto de vista de quea partir de un punto, de hecho el ser humano aprende menos o aprende peor precisamentepor sus emociones. ¿Cuántas veces no nos equivocamos o tomamos malas decisiones porquenos dejamos guiar por cosas que no son? Porque de hecho nuestro cerebro está programadopara ser más intuitivo y rápido porque no tenemos capacidad computacional infinita.Eso es una limitación humana. ¿Por qué una inteligencia artificial puede acabar siendoinfinitamente sobre el papel más inteligente que un humano? Porque no tiene por qué teneresa capacidad. Es ilímite. Nosotros estamos limitados por el tamaño de nuestro cerebro,la energía que somos capaces de gestionar en un corto periodo de tiempo. Potencialmentepuedes hacer algo mucho más potente y donde la emoción... Yo no tengo claro cuál esel rol de la emoción en la inteligencia. Sí que está claro en el punto de vista evolutivoy como motor para no morirte. Como motor para hacer cosas. Si no sintiéramos seguramenteno teníamos incentivos para aprender. Claro, pero es que esto es una máquina. Ese incentivolo puedes programar. Lo puedes forzar. Le puedes forzar a que haga lo que tú dicespero no le puedes forzar a que sea mejor. Es decir, hace lo que hace y punto. Eso esla meseta y ahí es de donde queremos salir. Para que nuestra audiencia lo sepa estamosaquí cuñadeando. Esto es muy fácil decirlo. Esto de vamos a codificar las emociones ovamos a eliminarlas de la ecuación. Luego eso hay que transformarlo en un modelo matemáticoy a ver qué pones ahí. ¿Qué decías, Frankie? Perdona.He dicho que estamos cuñadeando y he dicho que cuando no. Pero aprovecho para rescataruna de las cosas que he comentado antes. Porque ahora, según estamos hablando, si me ocurríaotra cosa, digo, joder, con lo que has dicho, Corti, tenemos el cerebro que tenemos queno puede ser más grande, no puede tener más neuronas. Hemos llegado a una meseta los humanospor el cerebro que tenemos. Es decir, ya partimos con ella. Realmente, si es así, lo que comentabaantes, teniendo más sensores podríamos llegar a superar esa meseta. Porque el cerebro nosimpone una serie de restricciones, pero tampoco está trabajando con todos los datos que podríatrabajar seguramente. Teniendo más sensores o incluso extendiendo la capacidad computacional.La computacional no sé si se puede, pero la memoria parece que sí. Hay visos que puedallegar en algún momento. Claro, yo creo que ya seguramente, sobre el papel, con Neuralink unapersona ya puede manejar una interfaz por computador. Somos capaces de extraer impulsosdel cerebro y entender qué significan. Y somos capaces ya, no sé si sea Neuralink o algún otrocientífico, que son capaces de escribir en el cerebro. Son capaces de pasar la información.Teniendo eso al futuro, probablemente podamos expandir las capacidades humanas tanto en memoriacomo en procesamiento, como en sensores. Que entra ese debate tan interesante de dónde está el límitehumano. O sea, cuando eso empiece a pasar, seremos humanos o seremos otra cosa. Y lo mismo. Y unamáquina cuando empieza a desarrollar sentimientos, ¿a partir de qué punto una máquina es humana?¿A partir de qué punto una máquina está viva? Esa es otra cosa que no hemos llegado a comentar.Pero también parece que para ser humano hay que estar vivo. Y el clásico ya se confundió,efectivamente. Parece que para ser humano, en principio, hay que estar vivo. ¿Necesitamosque las máquinas estén vivas para que parezcan humanas o para que tengan emociones?Si no sabemos definir inteligencia, vamos con la vida. Evidentemente es inevitable que ocurrauna hibridación. Es decir, la hibridación ya existe. Es decir, si yo voy con un móvil en elbolsillo o todo el rato en la mano mirándolo, ya tengo una capacidad de percibir informaciónmuchísimo más potente que si eso no existiera, la tecnología. No necesito que me lo hayanimplantado en el cerebro. Entonces la hibridación está ocurriendo y seguirá su marcha. Eso esinevitable. Y la tecnología te ofrecerá capacidades que no tenías y que nos cambian el escenario. Esoha ocurrido siempre. Ahora, esto de la IA es algo que se integra más y supone más breakthrough encuanto a lo que son las cosas que podemos hacer. Porque a mí si me preguntas cuál es la últimapelícula que ha hecho Ryan Reynolds, te lo contesto. Bueno, eso lo sabe todo el mundo,pero he puesto un mal ejemplo. Pero que en menos de un minuto soy capaz de decírtelo y a lo mejorhace 20 años tenías que dar con el típico friki que se sabía todo del cine y tal. Y ahora lo hacecualquiera esto. Entonces, eso ya está ocurriendo. Ahora, que eso nos lleva a un siguiente nivelcomo especie y aumenta nuestras capacidades es una cosa que suena como muy grandilocuente,pero yo creo que a lo que habría que ver es más un tema de a qué velocidad nos lleva a ese nivel.Porque poco a poco, pues oye, nosotros vamos desarrollando una tecnología y un entorno quenos hace que mejore y vamos a la luna y no sé qué. Pero claro, la pregunta es ¿esto de repente,en poquísimo tiempo, nos podría cambiar totalmente las reglas del juego? Eso es quizá la pregunta.Pero para eso yo creo que la IA tiene que ir mucho más allá. Y quizá la manera,fíjate, eso lo dice Raúl en su libro, quizá la manera de que evolucionemos sea que nosotrosle demos a la inteligencia artificial la parte que le falta, esa parte emocional más conectadacon el entorno real como tal, y la inteligencia artificial nos dé a nosotros la parte en la quenosotros somos peores. Capacidad de cómputo, de almacenamiento, de procesamiento de información,de tal. Y si tú consigues hibridar bien eso, entonces sí que te sale una cosa que escualitativamente mejor. Porque yo acabo de definir mejor un niño mirando TikTok y tampoco es así.Sí, está por ver que funcione mejor. Oye, yo creo que de aquí hemos sembrado la basede algún otro caravé para varias. Efectivamente, a mí ese comentario me lleva a una posible conclusión,puede ser en algún punto para que la inteligencia artificial sea mejor todavía. Tiene que serhíbrida con nosotros. Si no, puede ser más, puede tener más información, puede tener más lo que sea,pero como inteligencia. Y aquí, cuando hablemos, ya estamos un poco abriendo melón, pero cuandohablemos con Arabales y cuando la gente se pueda leer el libro, la definición de la inteligenciaque da es de algo tan... Podemos hablar de cosas muy muy básicas, pero podemos hablar también decosas muy avanzadas. Podemos hablar de eres más inteligente o menos inteligente. Pues la inteligenciaartificial, entonces, estamos planteando que para ser más inteligente, para aprovechar su máximo, dependede nosotros, que si no, no puede llegar a ello. O depende de para qué aplicaciones, a lo mejor.¿Para avanzar en la ciencia es necesario esa parte de sentimiento humano? ¿O para desarrollar nuevosteoremas físicos, realmente, con la información, o sea, con la parte más de máquina, la parte mástecnológica es suficiente? Es que hay mucha parte filosófica en todo esto, que al final sondefiniciones. Que suponemos que es inteligencia, que suponemos que es inteligencia humana, que esun ser, lo que decías tú antes, Frankie, que es un ser vivo. Hostias, es que no somos capaces deresponder esas preguntas. Al igual que no somos capaces de responder cómo funciona nuestro cerebro,¿no? Por lo tanto, siempre todas estas cuestiones van a ser totalmente subjetivas. Vamos a trazaruna línea como sociedad en la arena que irá cambiando a lo largo del tiempo. Pero para eltema del ser vivo, aunque estoy seguro de que hay mil definiciones, pero si hay cosas como que pareceque son básicas. ¿Qué es un ser vivo? El ser vivo se alimenta, se reproduce, evoluciona también.O sea, hay una serie de características que te definen cómo ser vivo. Una de ellas es la evolución,eso seguro. Y bueno, pues ahí es parte de lo que estamos diciendo, ¿no? Está la inteligenciaartificial evolucionando, hasta el punto. Lo estamos haciendo realmente nosotros, ¿no? Estamoshaciendo que evolucione. ¿Cuándo va a poder evolucionar por sí misma? Porque es unacaracterística que debería ser endógena, no exógena, como se lo estamos poniendo nosotros.¿Y a lo mejor esa evolución depende de la simbiosis? No sé. Cómo se nota que estamos enverano, ¿eh? Todas las cosas que estamos comentando. Me recuerda a los programas delaño pasado, en esta época. Tenemos ahí, por ejemplo, los sistemas de vida artificial. O sea,hay un montón de sistemas informáticos y pseudo inteligentes, que evolucionan, ¿no? Que ellosmismos son capaces, por ejemplo, de algoritmos genéticos, que son capaces de modificarse ydelar. Hostia, eso está más cercano al ser vivo o no, ¿no? Volvemos a lo mismo. Va a haber un puntodonde tenemos que trazar una línea. Porque hasta ahora era muy fácil definir todo esto porqueera imposible que hiciéramos algo artificial que se acercara en capacidades a lo que veíamos enla naturaleza. La gracia de la IA, ¿no? Y en este momento en el tiempo, la IA. Pero también nos lopodemos llevar a campos más biológicos. Porque ya empieza a haber sistemas, ¿no? Robots físicos,que son capaces de arreglarse a sí mismos, de cambiarse, de evolucionar. Estamos en un momentoen el tiempo donde lo hecho por el hombre, o lo que viene un poquito por el lado del hombre,empieza a tener todas esas capacidades que hasta hace 20 años pensábamos que eran imposibles. Porlo tanto, las definiciones van a tener que cambiar. Y lo que está muy claro es que el que va a sermás inteligente es el que pague el PRO. Y cuando estemos hibridaos, habrá también varias castas.Sí, varios niveles. Así que, brace yourselves. Bueno, yo creo que está bien, ¿no? Lo podemosir dejando por aquí. Buen podcast de verano. Que no será el último del verano, supongo.Como poco, tenemos un especial grabado que saldrá después que esto. No sabemos muy bien cuándo. Y alo mejor hacemos alguna otra cosa. Y a lo mejor hacemos otro. Así que nada, stay tuned. Muchasgracias por acompañarnos hasta aquí, a los que habéis llegado. Muchas gracias, chicos,por esta conversación. Y nada, nos vemos en la próxima. Un abrazo también a Takeshi. Y a todos los que nos han visto,que ha estado también por aquí Crowd Descents. Y nos hemos dado mucha bola más allá de poner losmensajes. Muchas gracias por tus comentarios. Nos vemos a la próxima. No es lo mismo tomarla,a lo mejor, en el campo que en tu habitación. Porque tu mentalidad, tu estado mental escompletamente distinto. Si vas con prisa, que si no. Si tienes un hijo y está llorando, que si no.Yo qué sé, hay tantas circunstancias. Pero eso nos hace más inteligentes o menos. No lo sé,pero es una componente que, si queremos que la máquina se comporte como un humano, que es unade las cosas que estábamos discutiendo también, no es que les debamos de dar, tienes un hijo o no,pero sí le tenemos que dar información sobre cuáles son nuestras circunstancias que a díade hoy está ahí perdida. Y cuando hablabas antes, lo decía Skorty, de utilizar vídeos,por ejemplo, utilizar imágenes, utilizar mucho más multimedia para entrenar. Claro,eso no solamente tendría que estar en el entrenamiento, sino también en la entrada.Cuando le lanzas la pregunta, la entrada tendría que llevar todo eso. ¿Dónde estoy y cómo meencuentro? O sea, necesitamos dortarle a la máquina de tantos sensores, que es lo queestabais comentando antes, que a día de hoy es ciencia ficción. Necesitamos pues eso,el Neuralink de Elon Musk, para que podamos transmitirle toda esa información. Más aparte,el tiempo atmosférico. Yo qué sé, tantas millones de cosas que realmente es algo que,no digo que lo necesitemos, pero que siempre va, para mí, siempre va a hacer que la máquina secomporte de una forma que no puede llegar a parecer humana, pero que no tiene por qué ser humano.Y eso me llama a otras cosas más. Y perdonad que estoy sacando muchas cosas, pero me vienentodas del tirón. ¿Qué tipo de humanos seríamos nosotros? Porque estabas diciendo, Lou,hablabas de transhumanismo y de poshumanismo, y de pasar nuestra conciencia a un ordenador y tal.¿Y si nos aumentamos nosotros con otra serie de sensores? Porque efectivamente tenemos lossentidos, que ya sé que son más de cinco, pero bueno, tenemos vista, oído, tacto, yo qué sé,todo lo que conocemos. ¿Qué pasa si nos ponemos más sensores, que nos ayuden a recibir másinformación? ¿Eso nos puede llevar a ser más inteligentes o simplemente distinto? Yo qué sé,se me ocurren todas estas cosas, lo siento, lo lanzo ahí.Son muy buenos melones. Y eso es lo que decías antes, vamos a imaginar que a una máquina a díade hoy, o sea, le pasamos todo ese contexto, somos capaces de ponerle pues cámaras, que sienta todo,como sienta, o sea, que perciba su contexto como lo percibe un humano. Tener, para mí el tema estener emociones humanas o tener eso...
Leer más

Escúchalo ahora en

Últimas publicaciones del blog

¿Qué son las inserciones y cómo utilizarlas en tu podcast?

Con las inserciones de audio puedes actualizar y promocionar tus contenidos o ...Leer más

Facturar más de 11.000€ en 5 días con un audiocurso – Oriol Roda

Cuando descubrimos a Oriol Roda hace unos meses, alucinamos con los 60.000 sus...Leer más

¿Qué es una red de podcasts y qué ventajas ofrece?

Unirte a una red de podcasts puede beneficiar tus contenidos de diferentes man...Leer más

WAV vs MP3: ¿Cuál es la diferencia y cuál es mejor para tu podcast?

Conocer la diferencia entre los formatos WAV y MP3 es crucial debido al impact...Leer más

Beneficios de crear un podcast si tienes una ONG

¿Tienes una ONG? Estas son tres maneras en las que un podcast puede fortalecer...Leer más

Combinando venta de servicios y productos digitales para llegar a las 6 cifras anuales – Alex Llull

Alex Llull empezó estudiando comunicación audiovisual porque le gustaba comuni...Leer más