Avatar

#23-B: ¿Estamos de camino a la Inteligencia Artificial General?

La Tertul-IA: Inteligencia Artificial y más

Presentado por

La TertulIA

Cara B del episodio 23 donde revisamos nos preguntamos: ¿Estamos de camino a la Inteligencia Artificial General?.

Suscríbete a nuestra news, donde encontrarás también los enlaces de los que hablamos en el episodio, en https://tertulia.mumbler.io/

Transcripción

Pues nada, la cara B. Vamos a hablar hoy de... Bueno, lo he adelantado un poco, ¿no?¿Hasta dónde están llegando las capacidades de las inteligencias artificiales?¿Qué es lo que se esperaba y qué es lo esperable a partir de ahora?Hay un... Yo creo que esto lo empezamos a hablar por un tuit de Pedro Domingos, ¿no?Que mostraba una gráfica en la que varios... No sé si lo tenéis por ahí.Ahora lo compartimos, pero en la que varios... Aquí se ve, ¿no?Esto lo retuitea ya LeCun, ¿no? Pero en el tuit de Pedro Domingos pues dice quela performance de distintos tipos de inteligencias artificiales se acercade manera asintótica a lo que llaman el human baseline, ¿no?Digamos que es una performance comparable a la que podría ser la humana en determinado tipo de tareas.Pero claro, si se acerca de manera asintótica y no lo supera, pues esto contradice un pocoestas conjeturas, y él menciona concretamente a Kurzweil, ¿no?Por eso vemos acá al principio estas conjeturas sobre la singularidad,donde la curva no se queda plana de forma asintótica a una horizontal,sino que en la singularidad lo que ocurre es hacia la vértica, ¿no?Que la cosa crece exponencialmente de repente y crece tan rápido que no lo podemos controlar.Y gran parte del miedo que se ha metido con todo este tema de la inteligencia artificialy de que, bueno, aquello por lo que teníamos que ponernos muy serios con la regulacióny prohibir muchas cosas, el open source y todo, pues venía respaldado por esta idea, ¿no?De que hay un verdadero peligro de que la inteligencia artificial se convirtiera en superinteligenciao que alcanzáramos esa singularidad en un momento determinado y ya esto se nos fuera de las manos.Bueno, pues parece ser que por las métricas que tenemos hasta ahora, pues lo que está pasando es esto, ¿no?Que las inteligencias artificiales en algunas tareas llegan como mucho hasta la performance humana.Esto no quiere decir que hayamos emulado al ser humano o que lo hayamos igualado,sino que en algunas tareas se llega a la performance humana, pero que en ningún caso supera, ¿vale?Si quitamos el componente de la escala, por eso ya lo hacen los ordenadores con muchas cosas.Y luego entraba ya Lecún aprovechando la coyuntura, pues para defender un poco lo que él siempre ha dicho, ¿no?Que por un lado, pues las IA's se entrenan con los datos que hemos generado nosotros y eso ya se les está acabando.Ya se han acabado a internet, ¿no? Y ya si se entrenan con datos nuevos los han generado ellas mismas,pues nosotros no podemos ir tan rápido, ¿vale?Y que luego, pues los LLM's, como todo esto venía porque se le atribuían unas capacidades a los LLM's,pues que los LLM's tienen una forma intrínseca, de funcionamiento intrínseco,que no es suficiente para llegar a la superinteligencia o a la inteligencia artificial general, ¿no?¿Qué pensáis vosotros de todo esto? ¿Es verdad que vamos a discutir o vamos a estar de acuerdo como siempre?Seguramente vamos a estar de acuerdo. Va a ser como siempre, un poco mierder en ese sentido.Pero bueno, espero que no. Espero que no.Corti, ¿tiras? ¿Tiro? ¿Cómo lo ves?Está de caña.¿Tenemos un límite generado por los humanos? Seguramente sí. Es algo que hemos hablado otras veces, ¿no?Seguramente llegaremos a un punto a lo mejor en el que nos encasquillemos hasta que surja algo que nos permita seguir avanzando, ¿vale?Tú decías hace varios programas, y no sé si ya lo hemos repetido alguna otra vez,aquello que te decía Nacho sobre que un problema de IA se podía resolver o que la IA resolvía los problemas como lo hacían los humanos o de la mejor manera posible, ¿no?Y pues un poco el tema va por ahí. En el momento en el que estamos tratando de verlo con nuestros ojos y con nuestra manera de pensar,ya no estamos autoimponiendo un sesgo y unos límites bastante serios, bastante importantes.Pero creo, y esto lo puedo ligar con aquello que estábamos comentando antes acerca de los agentes,creo que sí que se están viendo cositas que nos pueden hacer, vamos a decir primero, acercar más a lo que hacen los humanos.Ya lo hemos comentado otras veces, lo que hace la IA a día de hoy son tareas bastante sencillas dentro de lo que nosotros podemos hacer.Voy a poner, porque el otro día estuve dando una charla, que me invitaron a dar una charla sobre IA generativa en e-commerce en este caso concreto,y preparé una slide que voy a compartir por aquí si la encuentro. Vamos a ver, medio segundo.Ya está. ¿La tengo por ahí? ¿Sí la tenéis? No, no sé si está visible ahora mismo. ¿Está visible? Sí. Vale.Esta es una slide que preparé tratando de ilustrarlo para los que lo estéis escuchando.Simplemente lo que ilustra es que en lugar de que haya un LLM en el medio, con pasa concha GPT, tú le pasas un prompt,le da una vuelta a todo y te escupe un resultado, sea el que sea, y ya está.Luego puedes iterar, lo hemos comentado otras veces, le puedes lanzar más preguntas, pero solo con un prompt te devuelven un resultado.El concepto de la gente, lo que se basa es precisamente en que tú le lanzas ese prompt, analiza lo que le estás pidiendo,si es muy complejo lo descompone, planifica, pide a diferentes sistemas que pueden ser externos,que de hecho en muchos casos van a ser externos, que solucione partes del problema, pueden ser otros agentes, pueden ser LLMs,pueden ser modelos de predicción, aplicaciones externas, un buscador, cualquier cosa.Incluso tiene una parte de memoria, que puede ser una memoria que tú ya le hayas predefinido o una memoria que lo que haga sea guardar el contexto.Que por cierto, hoy ya sale alguna noticia por ahí diciendo que echar GPT ya te permite hacer eso en América, no en Europa todavía.Pero te están empezando a permitir como guardar cierta memoria para tener información sobre quién eres tú,información que te interese a ti darle para que luego utilices.Y con toda esta planificación, estas tareas resueltas y tal, ya te proporciona una salida.Es decir, algo que en esencia, si queréis, en arquitectura a todos nos parece, no sé si básico o obvio,o son cosas que hemos hecho en otros sistemas, pero de momento aplicado aquí no lo teníamos.Lo voy a dejar ya de compartir.Entonces, sea como sea, estamos viendo avances. Esto hay que ver que realmente nos lleve a donde nos tiene que llevar.Pero, por ejemplo, las tareas de planificación e inteligencia artificial hasta ahora eran muy difíciles de resolver.Era uno de los principales problemas que tenemos.Si con esto empezamos a solucionarlo, ya nos está permitiendo tener algo que se acerca a los humanos.Repito, nos acercamos a los humanos. Todavía no estamos hablando de sobrepasarles algo en tareas muy concretas.Cuando nos consigamos coger, si algún día ocurre, ya llegaremos al siguiente paso.Pero lo hemos comentado otras veces, nos queda mucho para cogernos.Y paro aquí porque me vienen muchas cosas a la cabeza, pero no quiero tampoco liarnos con muchas ideas.No sé si a partir de aquí queréis seguir vosotros.Yo siguiendo un poco esta línea, si lo juntas todo un poco, y tiene mucho que ver con algunas de las noticias que hemos comentado,que el enfoque de John Travolta en un LLM, con toda la información del mundo, yo sí que creo que tiene su meseta.Es decir, ese enfoque al final va a tener su límite porque trabaja solo con lenguaje, como hablábamos antes.Solo es una parte de la inteligencia humana, aunque parezca que es un proxy para que seamos inteligentes.Está muy acotado, le falta mucha información.Mucho que ver también, otra vez, me repito algo que habíamos dicho antes, con lo que hacía Yan Lee Kun en su momento de«Es que un niño de cuatro años ha procesado más información solo con la información visual que ha procesado en cuatro añosque toda la información que ha procesado un LLM, por muy masivo que sea».Entonces, al final sí que el enfoque de «Oye, yo entreno un LLM para esta tarea», va a tener su meseta.Sí que es verdad que al final eso es un enfoque como muy bestia.Es decir, una cosa para todo.Y lo que dice Frank, que al final el enfoque, por ejemplo, los agentes y los enfoques que estamos empezando ya a desarrollarestán tirando para adelante.Seguramente sea un enfoque más parecido conceptualmente, no a nivel físico, pero sí conceptualmente a cómo sigue el cerebro.Que es, descompongo el problema en varias partes y resuelvo cada parte aplicando una inteligencia lo más adecuada posible.Y eso sí que creo que muy probablemente nos acerque al funcionamiento más humano.Yo sí que tengo la intuición, y es una intuición que tampoco hace falta pensar mucho,pero es que el funcionamiento de las redes neuronales es muy parecido al funcionamiento del cerebro.Y yo sinceramente no creo que el cerebro, o sea, creo que el cerebro es como hemos llegado ahí de forma evolutiva.Tampoco es una máquina, o sea, no es algo divino.Entonces dices, si la naturaleza ha sido capaz de crear algo como el cerebro humano o animal,porque hay animales con comportamientos muy inteligentes,si la naturaleza y la evolución de una forma casi caótica ha llegado hasta ahí,que no vamos a conseguir replicando eso con máquinas y optimizándolas e iterando.Es decir, no creo que sea algo imposible llegar ahí en un periodo relativamente corto de tiempo,menos corta a escala planetaria, por decirlo así.Sí que seguramente lo que necesitamos es complejizar todavía más.Es decir, que no solo un LLM le intentes que hacerlo todo, sino, no sé si son los enfoques de agentes,no sé si hay que mezclar el machine learning clásico con los LLMs,pero con una mezcla de todas estas cosas, estoy seguro que en 50 o 100 años vamos a superar la escala humana.Te lanzo, perdón Anu, le voy a lanzar una pregunta a Corti, al hilo de lo que estabas diciendo,porque estos días le he dado una vuelta y tú, Corti, sabes mucho de estos temas.De hecho, tienes algún libro relacionado.¿Pero podríamos decir que un LLM es como el Sistema 1 de Kahnemany este concepto de agentes es un poco como el Sistema 2?Pudiera ser. Mira, me gusta, me gusta. O sea, no lo había pensado nunca.Mira Frank, qué bien tirado está, ¿no?Para quien no lo sepa Sistema 1, es como más la intuición,que puede funcionar mucho como un LLM.Es decir, la intuición no es más que comportamientos inherentes que hacemos casi sin pensarporque los hemos hecho muchas veces.Yo siempre pongo el ejemplo del coche.El coche, cuando no sabes conducir, es un comportamiento muy racional.Tienes que estar muy centrado para saber lo que vas a hacer.Cuando llevas 20 años conduciendo, no te fijas en lo que estás haciendo, te sale de forma instintiva.Y eso es un poco lo que hace un LLM.Le das mucha información, aprende y es capaz de responderte sin pensar mucho,pero responde cosas que tienen sentido.Y muy seguramente lo dice Frank, pues me ha gustado el Sistema 2,que es la razón, que es el pensamiento profundo,que es el modo en el que nos ponemos cuando tenemos que enfrentarnos a un problemaal que no sabemos cómo abordar.Que, por cierto, no quiere decir que la razón acierte más que la intuición,que por lo general no es así.Pero sí que es verdad que hay cosas.La integral de 2347, pues ni idea.Te tienes que parar a pensar y a ver cómo se hace una integraly a descomponer el problema.Y eso es un poco más lo que hace un LLM.Muy bien tirado, Frank. Me ha gustado.Una tontería. Perdona, Lu.No, no. Yo iba a puntualizar, pero ahora ya puntualizo.Yo iba a puntualizar sobre lo anterior, pero ahora puntualizo sobre esto.Porque me ha gustado mucho la analogía con el Sistema 1 y el Sistema 2.Y a mí me lleva también a pensar en estas cuestionesque también son problemas abiertos a la inteligencia artificial muchas vecessobre la explicabilidad de las soluciones.Es decir, en un sistema de agentes donde los sistemas colaboran,al menos, o donde los problemas se descomponen en problemas más pequeños,al menos tienes una cierta información sobre cómo se ha llegado a una solución.No quiere decir que la tengas toda, porque algunos de los sistemas que usan los agenteso los sistemas multiagentes pensaba que jamás iba a volver a utilizar este término,pero aquí ha vuelto.También pueden utilizar algún componente, que sea una caja negra.Pero sí que tienes unos logs. Yo soy ingeniero,pues me imagino unos logs de lo que ha ido pasando en el sistema.Y un LLM le puede pedir a él que te lo explique.Oye, ¿me explicas por qué? Vete a saber lo que te dice.Pero en este caso sí puedes tener un poco más de control.En el Sistema 2, como haces un razonamiento, sabes cómo has llegado a la solución,errónea o no, y cuando se dispara el Sistema 1 es una cosa que sale sola,porque has desarrollado esa intuición, o te venía codificada de forma evolutiva,que esta es otra analogía que también podría mostrar aquí.A mí me gusta también esto que has dicho de la escala planetaria.Hasta hace no mucho, estamos hablando de 2023,tras el advenimiento de GPT-4.Después de echar GPT vino a echar GPT-4 y ya dijimos, Dios,se viene en 2030, el año favorito de todo el mundo.En 2030 ya está aquí la AGI.Estamos hablando de unos marcos temporales...Absurdamente rápidos, sí.Exacto. Mucha gente subida ahí, mucha gente importante subida ahí.Y luego estaban los Andrew Yang, los John Lecun y todo esto diciendo,no, no, no, aquí estamos hablando mínimo de eso, de 50 años,en el mejor de los casos, si no 300.Porque hay muchas cosas que no sabemos.Si supiéramos cómo funciona el cerebro humano, a lo mejor.Pero que no tenemos ni puta idea.Entonces, parece que eso está cambiando.Esa idea, que es un poco por lo que va todo esto,parece que empieza a cambiar y que empiezan a bajarse un poco las expectativas,no en cuanto al potencial de la AGI.En algunos casos sí, en otros casos van saliendo cosas nuevas,si se ve que tal y cual.O a su aplicabilidad, o su potencial aplicabilidad.Pero sí en cuanto a este tema de la AI general.Que no nos olvidemos que encontrar esto está en el centro de la misiónde empresas como OpenAI.Lo que hacen ellos es intentar llegar a eso,y lo han intentado de varias formas.Y han tenido mucho éxito con las últimas.Pero han intentado otras cosas, estuvieron en robótica,estuvieron en temas de jugar StarCraft,con aproches totalmente distintos a dos LLM.Y esta gente lo que busca es la AI general.Y al final, yo creo particularmente que ellos mismos,porque les va un poco en ello el tema,en contra financiación y todo esto,empujan también el hecho de que se piense que esto está cercano.Porque si ellos dan el mensaje de que faltan 100 años,pues a lo mejor le cierran el grifo.Claro.Exactamente.El hack no puede durar 100 años.Sí, además los ciclos de financiación son 4 o 5 años.Es un poco más corto, ¿no?Sí, sí, sí.Entonces ahí está todo alineado.Encabezado un poco de esto que decía Lu,que también lo tenemos aquí,como esta semana salía una noticia, un artículo,con palabras de Elena González Blanco,que era cofundadora de Clearbrain,pero que ahora está en Microsoft.Creo que la responsabilidad para mí es a Microsoft,un peso pesado de la inteligencia artificial en nuestro país y en Europa.Y que decía que las máquinas nunca podrán pensar,ni razonar, ni sustituirnos.Entonces, es un poco lo que dice Lu,con un mensaje bastante contrario al que hemos vivido.Y donde yo compro parte y parte no.Si sí que compro su parte de no,no van a sustituir seguramente.O sea, no debemos temer por esos empleos y demás,que es parte de la noticia por eso.Pero sí que es verdad que nunca van a ser capaces de razonar.Ostras, es que esto, por ejemplo, ya razonar.¿Qué es razonar?¿Qué es pensar?Empezamos a entrar, yo creo, en temas filosóficosporque no sabemos, como lo decía antes Lu,no sabemos cómo funciona el cerebro.No sabemos lo que es razonar.No tenemos ni puta idea de lo que es razonar.No sabemos explicarlo.Como para decir que las máquinas nunca van a ser capaces de razonar.¿Y qué pasa si consiguen mismos resultados con enfoques distintos?¿Eso no es razonar?Porque nos metemos en cosas como lo que decíamos antes.Que entendemos que la inteligencia es un derivado del lenguajey eso nos ha hecho durante siglos decir que un perro no es inteligente.Y a día de hoy...De hecho, salió una noticia esta semana que me partía el culo.Que unos científicos han demostrado que los ratones de laboratorio nos mienten.En muchos experimentos.O sea, que son mucho más inteligentes, saben lo que buscamos y a veces nos trolean.Y entonces dices, es que nuestra concepción de la realidadestá marcada por unos sesgos y unas movidas que nos hemos puestoen las que se supone que nosotros somos los listosy todos los demás de los seres son idiotas.Y yo creo que muchas veces abordamos a la IA también de esta forma.Yo ni creo que vaya a ser rápido que lleguemos a un AGI y al Terminator.Pero tampoco creo que podamos decir que nunca va a razonar.Porque a día de hoy los LLM en el fondo son muy tontos.Y sí que dan ciertas señales, no de razonamiento profundo.Pero sí que son capaces de generar cosas que en un humanoserían el resultado de un razonamiento profundo.Por lo tanto, dices, si estoy llegando ahí, en cuanto lo consiga elevar muchísimo más,¿por qué eso no va a ser un razonamiento?¿Qué haría falta para entender que es un razonamiento?Hablábamos hace, seguramente ya hace tres o cuatro meses,pero recuerdo que salió en uno de los programas,no recuerdo si era una universidad o varias empresas, no recuerdo muy bien,pero habían sacado como los niveles de la AGI.Y te contaban más o menos, creo que eran 6 niveles,en cada uno te decían qué es lo que se debería alcanzarpara que en el nivel 6 llegáramos.Uy, he hecho así sin querer, no me he dado cuenta.Ha salido ahí un pulgar para arriba del Mac que lo he puesto.Trataban de analizar para lo que hacía, los pasos que eran necesarios,poco a poco, para llegar hasta el nivel 6.Y analizando lo que nos podían dar a día de hoy los mejores LLMs,estábamos en el nivel 1, con 0,5 casi.Es decir, si hablamos de AGI con muchos niveles,seguramente estamos, como tú decías, Corti,en esos primeros pasos hacia la AGI, pero quedan tantas cosas por medio.Y además parece que las primeras, es lo de siempre,las primeras van más rápido, pero en la última milla, por decirlo así,los últimos pasos son los que cuestan más tiempo,son los que vamos a tardar más.Pensad en la conducción autónoma,estábamos en el nivel de 6 que hay, creo que estamos en el 3,no sé si hemos llegado a 4,pero aún nos queda, para que alcancemos la conducción autónoma plena,nos queda tiempo, se avanzan muchas cosas,pero nos queda todavía algo de tiempo.Y nos tenemos que apoyar en sistemas externos, de hecho, también.Y hablando también de esa inteligencia humana,la mayoría de las cosas en las que nos hemos ocupado,la inteligencia artificial, durante muchos años,son cosas tan básicas, y pongo básicas si queréis entre comillas,como ser capaces de ver.No hemos sido capaces de ver, de forma automatizada, si queréis,o computacional, hasta hace muy poquito tiempo,y todavía no somos capaces de seguramente distinguir todo,o que el sistema entienda todo lo que ve, ¿no?O sea, parece que hemos avanzado mucho,porque hemos avanzado mucho, pero estamos haciendo cosasque son básicas para nuestro cerebro,al menos para la manera en la que nosotros luegocomponemos toda la información para poder llegar a ese razonamiento.Es como cuando empiezas a aprender sobre algo,al principio te crees, en cuanto sabes dos cosas,te crees que sabes mucho, cuando empiezas a profundizarte das cuenta de todo lo que te queda, ¿no?Y yo voy también por la línea de cuanto más avanzamos,seguramente estamos más cerca de que necesitemos 300 años que 30.Total. En cuanto a lo que decía Elena González Blanco,que es una crack, pero la palabra nunca,pues lo que decía Gorty, ¿no? Nunca mucho tiempo.Entonces, ahora, si tú lo relativizas, ¿no?Y entiendes nunca como que no lo vamos a ver nosotros,o sea, que no tendríamos que preocuparnos ahora mismo por eso,yo estoy más o menos de acuerdo.El camino que ha tomado la inteligencia artificial tradicionalmente,ahora pues estamos viviendo esta ola, pero ha habido otras, ¿no?Y pues ha sido siempre, oye, ha ido adquiriendo capacidadesque antes solo podían hacer las personas, resolver problemas,hacer tareas que solo podían hacer las personas, ¿no?Y luego además, pues como es una tecnología que se define precisamente por esto,pues en el momento en el que se hace, deja de ser inteligencia artificial,y eso ha ido pasando siempre, ¿no?La medida en la que han ido comiendo terreno, ¿no?Digamos que han conseguido cubrir un espectro de tareas.Si tomamos como vara de medir lo que es capaz de hacer una persona,el porcentaje o lo que abarca la cantidad de tareas que pueden hacerlas inteligencias artificiales de las antiguas o de las nuevas hoy en día,pues un porcentaje muy pequeñito, ¿no?Y en el momento que ocurre eso, pues eso deja de ser inteligencia artificial.Pero es que, pensándolo así, yo creo que pensar de esa forma en el problema,no es lo que proponía Kurzweil, es una cosa mucho más pequeña, ¿no?Es una cosa predecible y es una cosa normal.Y ya no hay que hablar ni de ella, hay que hablar de tecnología, ¿no?La tecnología va avanzando haciendo cosas que antes solo podíamos hacer nosotros a lo burro,y ahora la hace la tecnología y ya nosotros nos podemos dedicar a otra cosa.Y cubre una parte muy pequeñita de lo que hacemos,porque en el momento en el que las máquinas son capaces de hacer ese tipo de cosas,nosotros somos capaces de descubrir otras mucho más avanzadas, ¿no?Y esto ha pasado siempre, ¿no?Por eso no se han cumplido preceptos que vienen de la revolución industrial,que vaticinaban cosas malísimas y no han pasado, ¿no?Porque es que no funciona así.Entonces, en cuanto a lo que es la evolución que tiene la inteligencia artificial, la tecnología,pues podemos asumir que esto está dentro de lo normal, desde mi punto de vista.Pero es que, claro, lo que propone Kurzweil es que en un momento determinado, ¿no?Y se puede leer mucha literatura de ciencia ficción al respecto, muy bien escrita.En un momento determinado nosotros no nos vamos a dar cuentay un sistema, le voy a llamar Skynet porque se me acaba de ocurrir este nombre.¡Qué nombre más bonito!Un sistema totalmente conectado a internet, ¿no?Porque ahora mismo también esto es una variable importante,el hecho de tener acceso a las redes de comunicaciones de todo el mundo.¿No sobrepasará en capacidades?Aquí ya entramos en lo especulativo, pero que es por lo que se ha metido miedo.Y esto escapará a nuestro control.No escapará a nuestro control porque irá tan rápido, ¿no?Lo que proponía de la singularidad y el desarrollo exponencial que toma en un momento determinadoporque se mejora a sí mismo continuamente a una velocidad tal que nosotros no podemospor un lado preverlo y por otro lado controlarlo.Lo que propone Kurzweil con la singularidad es esto.Y esto a lo que lleva es también a la segunda parte, que es que los modelos que utilizamos hoy en díapara predecir lo que va a pasar y para hacer conjeturas sobre que faltan 50 años, 5 o 100, ya no valen.O sea, en un momento dado, en el momento en que se produce eso, todo deja de valerporque la realidad misma cambia.Entonces, claro, de lo que estaríamos hablando es de algo así puede pasar.Puede pasar con los LLM, ¿no?O sea, yo creo que tiene mucho que ver con lo que decía Lecún.O sea, en el sentido de... Y es que está interrelacionado, ¿no?Si los sistemas aprenden con la información de los humanos, lo normal es que no superes el nivel de los humanoso no lo superes por mucho.En el momento en el que un sistema sea capaz de aprender por algo más,es decir, introduzca algo más en el sistema, sea capaz de aprender de sí mismoporque se ponga a experimentar, a hacer pruebas o lo que sea,yo creo que es cuando consigues salir de esa rueda y puedes llegar perfectamente aquí.¿Y cuándo puede pasar eso? Pues a mí se me ocurren muchos escenarios.Primero, hemos hablado en algún momento.Cuando una IA tenga un cuerpo...Al final, ¿qué diferencia el aprendizaje ese de un niño versus el aprendizaje de una IA?Una IA no tiene estímulos externos más que los estímulos que le damos,que son el corpus con el que aprende.Tú metes una IA en un cuerpo y permítela que experimente el mundo como lo experimenta un humano.A lo mejor empiezan a pasar cosas que le llevan a hacer autoaprendizaje,a aprender de su propia experiencia,y eso sí que le permite experimentar cosas que un humano no experimentaría, a lo mejor.Yo diría que en los próximos 30 años, muy seguramente,pero sí que creo que va a haber inteligencias artificiales capaces de hacer mejor que los humanosla mayoría de las tareas que hacemos los humanos, pero cosas concretas.Y que probablemente en algún punto, que no puede ser dentro de 50 años o puede ser dentro de 3.000,no sé cuándo, pero la lógica me dice que en algún punto eso tiene que pasar.Que algún sistema de IA vaya a ser capaz de ir aprendiendo de otra serie de cosas,aunque sea lo mismo, si desde un punto de vista evolutivo,eso ha pasado con seres orgánicos como nosotros hasta que hemos desarrollado este nivel de inteligencia,tú ponle los mismos años para adelante, capacidad de cómputo en paralelo, infinita,tío, es que eso tiene que llegar antes.¿Cómo no puede llegar?Es que sí podrías, si yo fuera matemático y supiera hacer eso, pero como no lo sé,pero seguro que eres capaz de demostrar que eso por cojones tiene que pasar.De hecho, a pequeña escala, muy pequeña escala, casi podríamos decir que ha pasado.Y me explico.Si recordáis, en esa época en la que se hablaba tanto de Go y de DeepMind y de AlphaGoy los distintos modelos que fueron surgiendo y tal, una de las cosas que se viocuando la máquina fue capaz de ganar a los principales maestros de Go del mundo,es que había algunas jugadas que las pensaba de otra manera.Pensar es una palabra muy grande aquí, ¿no?Y aquí Bloom sabe mucho más que yo del tema.Pero bueno, había jugadas que a un humano no se le hubiera ocurrido hacer,incluso muchas veces por sesgo.Es decir, es que esto no lo puedes hacer porque vas a perder.Sin embargo, la máquina tiraba por ahí y hacía otras cosas distintasy al final lo que ha terminado ocurriendo es, los humanos hemos aprendidode esa forma de jugar de la máquina para incluso mejorar.Entonces ya ha pasado en algún momento.Ya os digo, es un ejemplo muy pequeñito y difícil de generalizary estamos muy lejos en ese sentido.Pero bueno, que sí que puede ocurrir, quizá en tareas muy específicas,que después unidos todos nos puedan llevar a situaciones un poco más generales.Y es que precisamente, y esto suena paradójico,pero el problema han sido los LLMs.Y me explico, el enfoque que tenían DeepMind y OpenAI antes de los transformers,cuando se perseguía la AGI, de esa forma, intentando construir sistemasque aprendiesen de sí mismos, que es cómo funcionan esos sistemas de juego.Y se han conseguido cosas de ese estilo.Oye, yo no te digo nada, ni las reglas del juego,y aprendes a jugar mejor que el mejor jugador humano.Súper rápido además, ¿no?Para un problema muy concreto, vale, sí, acotado, tal,pero fíjate, ¿no? Es bastante impresionante.Pero todo eso se ha parado.O sea, todas esas líneas de investigación ahora no son sexy para nadie.¿Por qué?Porque llegaron los LLMs,nos impresionaron con su capacidad de parecer que sabía lo que decían,porque claro, el lenguaje es muy impresionante.El lenguaje impresiona mucho.Es decir, una cosa que antes no se podía hacer.O sea, el procedimiento de la inteligencia artificial es un campo de siempre.Y preocupa mucho porque es una cosa muy potente y muy útil, ¿no?Y de repente un montón de problemas que no sabíamos cómo resolverse resuelven de la noche a la mañana y de manera súper eficiente y tal,y mucho más.Y para todo el mundo.Todo el mundo tiene acceso, que eso es lo que le da más potencia también.Eso es.Pero eso ha hecho que cualquier otra cosa,cualquier otra línea de investigación en IA se vuelva poco relevante.No digo que no pasen, pero serán marginales, claro.Pero, Chris, por lo que hablábamos antes,y decía Frankie, o sea, hablamos con los agentes,pero abstraigámonos incluso de los agentes, ¿no?O sea, vivimos los últimos años, como decías,una etapa en la que los DeepMind, con todo esto, los alfagotas,estas historias, donde hemos aprendido a resolver problemas por IAde una forma donde la IA aprendía sola y que era capaz,como ha dicho Frankie,de incluso ser creativa en los enfoques de solución de problemas,en algo muy específico.Ahora estamos en la etapa en la que los LLMs son capacesde aprender contenido más generalista, ¿no?Son capaces de hacer algo más amplio y no tan creativo.Y ahora quizás entramos en la fase en los próximos añosdonde, o con enfoques de agentes o con enfoques que combinenambos enfoques LLMs con los modelos más de Machine Learning clásicoso estos enfoques de AlphaGo y demás,donde vamos a jugar con esos dos enfoques,donde sí que nos vamos a acercar a ese proceso de razonamientoque decíamos, ¿no?Que haya partes que sean capaces de descomponer el problema,partes más creativas,partes que sean capaces de solucionar mejor un problemay eso sí que nos pueda acercar un poco más, ¿no?A algo más human-like.Sí, me estaba viniendo a la cabeza tambiény no sé si cambio un poco el rumbo de la conversación,pero bueno, me lo despertaba.Si estamos entrando de alguna forma a una especie de carrera espacial,donde al final nos estamos centrando mucho en una cosa muy concreta,como era llegar a la Luna,y una vez que llegas a la Luna te olvidas de ir a Marte,como que parecía que era lo siguiente, que iba a llegar enseguida, ¿no?Hemos conseguido un hito que es la lechey seguimos ahí centradoshasta que veas que lo siguiente es más difícil y se pare.Y de hecho también me venía a la cabeza,porque hablábamos en el último programa sobre el papel de los chinos,cuando veíamos el informe de Stanford decíamoshay un montón de aportaciones que son americanas,creo que eran como 60 por ahí,15 eran chinas, de China,y luego había como de Europa unos 12 o 13 o una cosa así.Esta semana, justo en estos últimos días,ha salido un LLM chino,que en principio, según los benchmarks,es mejor que lo mejor que teníamos hasta el momento,más o menos un 10% mejor.Es una de las noticias que hemos puesto por ahí,o sea, el que quiera también puede echarle un vistazo,aunque está en chino, tendrá que utilizar un traductor,porque si no, no hay manera.Y luego también han sacado otra aplicación,se llama Vidoo o algo así, con V,que es como Sora, ¿vale?Parece que no llega a ser tan tan bueno,pero es muy muy parecido y encima con la diferencia,porque Sora, si os fijáis, es más o menos una cámara,todo el rato es la misma cámara.Aquí ya hace cambios de cámara y como cambios de ángulo,o sea, consiguen algo más,aunque pierdan por un lado, ganan en otro.Entonces, en el momento en el que estamos viendoque más allá de todo lo que conocemos que es occidental,también China se mete ahí y empieza a sacarlo,que decíamos, ¿dónde están?No sabemos si algún día va a salir o no,porque no creamos que no tuvieran nada.Esto es como que va cogiendo todavía más velocidad,más fuerza.Está guay, ¿sí?No, no, a ver,hay cosas que está claro que no se van a parar, ¿no?No sé si, con esta analogía que hacías de llegar a la luna, ¿no?Se me ha ocurrido de momento.Si tiene fallos, no es quien comela.No, no, no.Hoy estás muy sembrado con las metáforas y las analogías.A mí me han gustado las dos.A mí me ha gustado, sí.Pero claro, eso era un contexto en el que,cuando se llegó a la luna,es como que se murió la carrera espacial, ¿no?Después de eso, empezaron a…Perdóname.¿Cómo que murió al cabo de los años cuando se vio que tampocose podía avanzar tanto como ellos creían,por hacer una puntualización?Sí, no lo sé.A ver, hay que leer sobre la historia.Yo lo que tenía entendido es que,una vez que se alcanzó ese hito,que era difícil de superar en un plazo…Claro, porque en la carrera espacialse iban sucediendo los plazos, ¿no?De una manera que había cierta visibilidad,porque había mucho de propaganda en todo eso y tal.Y en el momento en el que se vio que a corto plazolo siguiente no iba a tener ningún tipo de impactoen la Guerra Fría y tal,pues dijeron, aquí no metemos más dinero.Y sacaron toda la pasta.Entonces, ¿puede pasar eso con…?Es que la exploración espacial,yo creo que la gran diferencia,en el momento en el que se hizo,es que más allá de ver quién la tiene más largay de mostrar un gran hito para la humanidad,que podía tener mucho sentido en su momento,porque unió, por ejemplo, a Estados Unidos,pues yo creo que es un tema caside hacerlos creer en cosas muy grandes.Hay una serie de cosas como más emocionales y tal,pero en el fondo fuimos a la Lunay más allá de sacarnos la chorra,de la Luna no te trae ni un pedrujo,no representa nada de utilidad.De hecho, está empezando,estamos viviendo la era del New Space,porque ahora sí que es un momentodonde la tecnología y demás nos permite empezara pensar casos de usoy explotar la tecnología espacial,que en los 60, por lo dicho,más allá del hito,no podías hacer nada con ello,no era violento.Sin embargo, es que la IA a día de hoy,o sea, me refiero, ya genera,la IA es productiva,todo lo que se ha hecho en IA es productivoy todo lo que podamos hacermás con IA es productivo,porque al final estamos viendoque tiene el impacto ya esperadode lo que hay de trillones,puedes optimizar industrias,que es que ahorras un 10% de lo que sea,las pones en órbita.Yo creo que el gran diferenciales que la IA a día de hoy sí que aporta.Si hubiera sido, imagínate,si hubiéramos tenido un grancomo el gran breakthrough de la IAen los 60,un poco después del perceptron y tal,si hubiera conseguido modelos,pero que no tuviéramos la capacidad de cálculo,que nos faltara alguna pieza,pues hubiera pasado lo mismo,se hubiera quedado estancado un tiempoporque hacía falta desentrañar otras cosaspara que esto generara una productividad,porque esto llega en un momentodonde es productivo de cojones.¿Pero qué va a pasarcuando veamosque lo que tenemos ahorao lo que tengamos dentro de poco tiempoes suficiente?Y que en el fondo con esopara las empresas nos va bien,para el mundo nos va bieny que en el fondo no necesitamos más.O sea, puede ser que sí o puede que no.Y pensad que aquí están entrando tambiénaspectos éticos y legales, sobre todo,que ya sabemos que se estátratando de normalizar.Normalizar me refiero a través de normas,todo esto.Y volvemos a entrar con la parte de China.Si en China no tienen esas reglas,lo hemos comentado muchas veces,puede ser que vayan más rápido.Pero bueno, sea como sea.¿Qué pasa si llegamos a ese puntoen el que hemos conseguido esta hazaña?Joder, aporta mucho a la sociedad,aporta mucho a las empresasy es suficiente.Pues igual no hay que meter tanta pastacomo ha pasado en otras tecnologíaspor las que hemos pasado.¿Qué va a pasar en el siguiente paso?¿Qué va a pasar? Yo estoy seguro que va a pasar.Porque al final los hype cyclesy lo que ha pasado cuando lo vemoslas seis o siete olas de ida que ha habido,seguro que va a haber un momentodonde va a haber un enfriamiento,porque el incremento,la cantidad de pasta que le tienesque meter para incrementar muy poquitolo que tienes hasta quevenga otro gran breakthroughtecnológico o científico,no te compensa. Entonces, ¿qué va a pasaren esas bases? Habrá un enfriamiento de 5 o 10 añoshasta que venga lo siguiente.Pero que en el fondo es lo que estamosviviendo ahora, ¿no? Pues ahora yo creo quellevamos entre pitos y flautasla época de los LLM,antes a lo mejor la parte esta delos alfazol, alfagot,todas estas historias, pero antesveníamos de cuántos años,de una década o más de una décadaque a la IA no le importaba a nadie,porque era como de lo que habíaera casi imposible sacarlechiche, ya estaban todas las bases de las redes neuronales,estaba todo el pase del deep learning,en el fondo estaba ahí,lo que pasa es que no había máquinaso sea, no había infraestructuratecnológica para ponerlo en producciónredes neuronales tan grandes que fueran capacesde hacer lo que pasa ahora. Entonces yo creo quepuede que pase eso, pero si pasa eso eshasta que venga el siguiente gran breakthrough,que será por, yo que sé, imagínate,porque sacamos nuevos modelos deordenadores capaces de computar lo quenecesitemos o porque hayapasado, alguien se le haya ocurrido otro modeloque nos acerque apues a otra forma de pensar.Yo creo que estocomo ha ocurrido conotras tecnologías y no nos tenemosque ir muy lejos conlos ordenadores personales, por ejemplo,pues creceráporque es útil, como túhas dicho, todo sirve para cosas,crecerá, pero yacrecerá pues de una maneradigamos másmoderaday se inventarán una ley de Moorepara esto y todo el rolloy nos sacaránlos chips nuevos y los modelos nuevosLulo, no se inventará una leyde Moore. Tienes que decirla ahora mismo.Dile la ley de Loo. ¿Cuál es la ley de Loo?Dile la ley de Loo. ¿La IA va a crecer al no sé qué?Para que quede grabado o no y luegome citen paramí no para más. No tengo una ideade lo que puede pasar, pero yocreo en cuanto a nivelcuantitativo, porque la ley de Moore es cuantitativa,pero yo creo quepues lo quevan a vendernos,hay una concepción demodelo de negocio detrás,pues tendrá mucho que vercon cómo nos han vendidolos chips, las GPUs ylas versiones de software a lo largodel tiempo, porque a cierto tiempotiene que pasar por caja y yaestá. Pero para que eso paseantes tiene que pasar otra cosaMe voy a la segunda partede la noticia.Citaban aElena González Blanco, que hablóen una conferencia enAlcobendas.Lo he dichoy me ha sonado raro esto de una conferenciaen Alcobendas, perosí, así fue.Y hablaba de que,aunque se mostrase escépticaen cuanto aal tema de la inteligenciaartificial general y tal, pues ella hablaba luegode temas de utilidad.Decía que lo que tenemos que hacer esestar preparados y formados,entender cómo funcionan para poderaplicar estos sistemas ennuestras empresas. Y yo aquí,y digo, para que pase esto de quesea sostenible en el tiempo y se conviertaen una industria de la que se da dineroy ya está, y se normalice,tiene que pasar primero esto,que encontremos las utilidadesy que se democratice, otra vez la palabra,hay que encontrar las utilidadesy que éstas queden democratizadas.Y yo,creo que esto va a pasar,pero soy un poco escéptico,creo quequien sea capaz de hacerlo,de aplicar estoen su compañía, imagínate,para la optimización de tus procesos internosde la compañía y tal,se habla mucho de este tema.Por ejemplo, habéis sacado productos,también puedes coger y aplicarde todo el cuento.Pues la inteligencia artificialtiene un potencial increíblepara poder hacer esto.Pero claro, como dice Elena,hay que conocer,hay que saber cómo aplicarloy necesitas pasar por un procesopara llegar a eso.Y yo soy un pocoescéptico con que esto ocurrade una manera fácil, porqueautomatizar procesosy cosas que hacíanlas personas, hacerlasde una manera mejor y tal,ya lo podíamos hacer antes de la IA,con cuatro scripts,y no lo hace nadie.Y seguimos mandando,mira, te mando mi Excel,empieza mi versión y tal, haciendo la mano y tal.Entonces, yo creo que hace falta,y creo que quien pueda aprovecharel momento,y encuentralas personas adecuadas paraaplicar esto,va a tener una diferenciaincreíble,va a encontrar una ventaja diferencial increíble,pero creoque no va a ser todo el mundo.Va a ser como la transformacióndigital, que a veces lo hemos comparado,es decir, desde el 2000, que fuela Explosión de la Navegación.com,hasta el 2020,bueno, estamos en el 2024,y todavía hay muchagente, y bueno, y nosotros internamente,nosotros tenemos una cosa de la compañíaque operamos con un éxito muy gordo,la asignación de recursos y tal, que estamosviendo. Entonces, claro, que a día de hoy pasa,pues lo mismo pasará con la IA. O sea, yo creo quenos tocan ahora 20-30 años pordelante, donde incluso, aunque siga habiendomucho más breakthrough, pues iremosponiendo en producción cositas,y dentro de 40 años seguiremos teniendo cosasque son posibleshechas con IA, pero que estarán hechas a mano.Pero a lo mejor el 40%sí que lo has cambiado, o sea,lo que sí que vas a notar es una,o sea, como a nivel social,pues la mayoría de las cosas gordashabrán ido a modelos basados en IA, peropor eficiencia.Yo particularmentecreo que quien se ponga las pilas con esto,pero no va a ser todo el mundo, quien se pongalas pilas con esto, se va a poner muy pordelante, muy por delante, porque esto,como tú decías, es útil de verdad,pero no es fácil ponerse las pilas con esto,hay que tener, como dice Elena, conocimiento,hay que tener capacidad,hay que tener además la mentalidadde hacer este tipo de cosas,no todo el mundo lo tiene, a lo mejor hablo desde el punto de vistade España, pero creo que esto pasa en todo el mundo.¿Sabéisquién lo tiene? Un chascarrilloque acabo de ver este tweet por ahí,Samuel Gil, que pone una foto,comparte una foto de Zuckerberg en París,al lado de la Torre Eiffel,y se pregunta Samuel Gil,¿se ha comprado Mistral?Se ha equivocado,esa es su nave espacial.Pudiera ser.Hablando de mentes preclaras,hace un par de mesespor ahí Sam Admanhablaba, bueno, en una entrevista quele hacían, hablaba un poco,no sé si acuñaba el concepto, simplemente lo heescuchado después, hablaba un poco delone person billion dollar company,que sería como ese paso intermedioa la AGI, o sería la AGI de las empresas,si lo queréis ver así, un poco más acotado,donde para losque no conozcan el concepto, básicamentela idea es que una sola personautilizando inteligencia artificial sea capazde crear una empresavalorada en mil millones de euros,o mil millones de dólares,del one billion este que estamos hablando.Claro,eso a priori puede decir cualquiera, joder,lo tenemos ahí, podemos hacer, como decía el uno,podemos automatizar todo, pero es que llevaruna empresa, llevar una empresatan grande, estamos hablando de una empresa grande,implica no solo automatizarprocesos que son fácilmente automatizables,implica marketing,ventas, no sé,la gestión con más gente,de todo tipo, con clientes,con proveedores, con todo,con logística incluso, dependiendo de loque vayas a hacer, que es algo queparece muy muy muy difícil de automatizar,hasta el punto de que una sola personapueda estar viendo tres pantallitascomo las películas, y con esoy las letras de Matrix que caen,y la gente que no esté capaz de gestionarloabsolutamente todo, y sin embargo,Altman decía en esa entrevistaque estamos muy cerca de eso.Vale, o sea yo creo que casi lo que estamos diciendoes, nos pilla muy lejos,y de hecho joder, hace unos díasen otra charla a la que participé enMesa Redonda, me preguntaban a mí esoprecisamente, y justo la opinión quedi fue justo esta, que loveo muy lejos por estas razones, y luegobuscando un poco más, vi queAltman decía que no, que lo veía bastante cerca.¿Hasta qué punto él ve cosas que nosotros no vemos?O sea, yo con estoporque yo lo escucho de distintas formas,yo tengo como, o sea, yo creo que es una ilusión.Es decir, se habla mucho, ¿no?Este concepto de lo que has dicho tú, justo una personade One Billion Company, también se habla deque ahora las startups van a tener equipos más pequeños,porque no necesitantanta gente y tal.Pero vuelvo a lo mismo, llévateloa la transformación digital. Cuando empecé Internetsí que parecía que ibas a poder hacer una compañíacomo ya no necesitabas en un e-commerce,después tener almacenes y tener tiendas y tal,pues es que eso lo podías hacercon tres chalaos en ungaraje. ¿Cuál es la realidad? Que todaslas compañías digitales, de hecho,yo conozco muchas que sonahora auténticos mastodontesque no se mueven,pero porqueimagínate qué se puede hacer, queuna persona pueda crear una One Billion Company.Si una persona puede,muchas personas pueden, y cuando muchaspersonas pueden, se genera un panoramacompetitivo, dondeser mejor, o tener mejores sillas,o tener mejor equipo que sea capaz de...Entonces, al final, se genera una presión competitivaque te lleva al puntoactual, que es,para ser muy bueno necesito mucha gente,porque si no, no soy capaz de competir.Mucha gente, o de repente que alguiensí quede con una IA,con la IA general, ¿no?Pero yo creo que es una ilusión.Con todas las tecnologías pasa,que es un momento de pic de, joder, ahora necesitomás o menos gente para hacer lo mismo, pero claro,como luego todo el mundo empieza a adoptaresas tecnologías, vuelves al punto de origen.A mí me gusta,en relacióna esto, ¿vale? El tweet quetiene pineadoSantiago Valderrama aquí,sube pino en Twitter,la IA no te va areemplazar, lo hará una personautilizandointeligencia artificial, ¿vale?Yo creo quetiene que ver con esto, ¿no?No es tanto,habla un poco de cuál es la ventajacompetitiva,pero que tampoco,pero que esto es una herramienta,al fin y al cabo, que te hace mejor,¿no? Y que puede,tiene un potencial enorme.Habla de dos, tal y comolo veo, dos cosas. Una que,esto,usarlo es mejor, y llevaa que hagamos cosas mejores, pero al finalson personas haciendo cosas, ¿no?Y por otro lado,a queuna persona usando IA,una persona que conocelo que puedehacer con esto, ¿no? Y que ademástiene la mentalidad de utilizar esto.Yo creo que no hay que creersetantocuentos chinosy tal, porquey como hemos dicho antes,la economía funciona como funciona,la tecnologíaya nos haproporcionado cosas quehan revolucionado,lo han revolucionadotodo, incluso de unamanera másimpactante que conla IA quetenemos hoy en día.Porque claro, si pensamos en el rolloKurzweil, AGIy tal, pues sí que es una cosaque sería como la mayor revolucióntecnológica de todos los tiempos,hasta el punto de que dejaríamos de existir nosotros.Perotal y como, claro,pensando un poco en lo que tenemos hoy,pues yo creo que ha habidoinnovaciones tecnológicasmuchísimo másimpactantes en la historia de la humanidad.Es queno hay que pensarmucho, ¿no? Entoncesyo creo que hay que moderar un pocolas expectativas, entendiendoque esto es una cosa muy potentey que además, que no,tal y como lo veo yo, que no vaa funcionar por sí sola.También le atribuimos esto, ¿no?La IA ha llegado para quedarsey ha llegado para no sé qué,lo hace la IA sola, eso.La IA es una herramientaque usaremos nosotrosy que tendremos que ver cómo la aplicamosy dónde. Y creo, yo vuelvoa lo mismo, ¿eh?Porque últimamente hablo con muchagente sobrequé están haciendo en susempresas con inteligencia artificialy con qué está jugando ahoray tal yla verdad veo pocainnovación, ¿eh?Todo el mundo está llamandoa la API de OpenAIy haciendo cosas del estilo, ¿no?Y no veo que estonos vaya a llevar a lo siguienteen cuanto a lo que esmejorar. Sí que oigo cosasque son la leche, como las que ha contadoCorti de Mambler, ¿no?Pero esas no las oigo tanto, ¿no?Me encanta el cariñoporque nosotros también solo llamamos a la API deOpenAI, pero yo agradezco mogollónlas palabras de Lu.No, bueno, pero a ver, hay cosas que solose pueden hacer así. Es decir,la gentedice, no, sí, mandamos unos prompts para que nosrevise unos documentos, tal.Está bien.Sí, el uso es muy ligero.Sí, yo creo que estamos todos conesto, pero es verdad que está faltando esa reflexiónmás profunda de,oye, de cómo aprovechar a nivel negocio.Y también todo se ha dicho que yo creo quees complejo, porque lo vemos aquíque grabamos cada dos semanasy se nos quedan muchas cosas fuera.Yo creo que hay también como unmuy complicado entender,desentrañar a dónde hay que meterleatención, cuán tanimportante es que salga un algoritmo nuevoo sea un modelo nuevo, ¿no?Creo que todo este ruidodespista mucho, ¿no? O dejamosque nos despisten mucho de lo importanteque es, oye, tampoco te hace falta el últimomodelo para construir cosasinteresantes.De hecho, nosotros prácticamentehablamos el 99%de LLMs.en adquirir el conocimiento, en explorar distintas soluciones,en no caer en la trampa de tener una solución en busca de un problemay cosas por el estilo, que pasa mucho con estas tecnologías tan disruptivas.Y eso requiere esfuerzo, y esfuerzo poniéndolo de forma prosaica de dinero también.Y es que una empresa diga, oye, pues vamos a dedicarnos,o vamos a traer a alguien, o vamos a contratar a estos tíos que saben un montónpara que nos ayuden a encontrar las soluciones que realmente nos van a poner en casa.Hay una oportunidad para crear empresas que ayuden a otras empresas a hacer esto.Hombre, claro. Porque el conocimiento no está tan extendido.Es que de lo que sabe la mayor parte de la gente es de lo básico.Dicen, no, es que nadie es experto en LLM porque tienen un año y medio.No, perdona. Hay gente que lleva dedicándose al procesamiento del lenguaje natural un montón de tiempo.Y los LLM son de esto.De hecho, Elena, por ejemplo, que hemos hablado de ella,yo cuando la entrevisté en el podcast de Groza hablaba que ella venía de haber trabajado con Víctor Pena,¿os acordáis? De UNED y demás.En los tiempos donde nosotros investigamos en estos temas, que hace 15, 20 años,y de hecho mucha gente que está a día de hoy viene de toda esa época.Lo que dice Lu, esto no es nuevo. Lo que pasa es que ahora es cuando llama la atención.Hay gente que sabe mucho y hay que ir a por esa gente.Hay que hacer la inversión.¿Y quién sea capaz de hacer esto?Cuando precisamente sabemos que hay mucho más por ahí fuera,o que debería haber mucho más por ahí fuera.Pero es verdad que está canibalizando absolutamente todo.En los medios, efectivamente, las empresas que ya no se plantean resolver problemas,los que estoy generalizando, ¿no?He trabajado mucho ese planteamiento de resolver problemas que no sea con LLM,que es lo fácil y lo barato también desde cierto punto de vista.Aunque sobre eso podríamos entrar.No tienes ningún tipo de control sobre lo que estás haciendo tú.Que hay situaciones en las que es perfecto, no hay ningún problema,pero otras en las que no te permite, a lo mejor,llegar a solucionar tu problema de la manera más adecuada.No sé, creo que nos estamos convirtiendo en un poco vagos en ese sentido.Es quizá mi conclusión de todo esto.Y precisamente hace falta lo contrario.Es decir, si tú, ni siquiera hablando de ella,si tú quieres mejorar algo, tienes que hacer una inversión.Una inversión de esfuerzo, de tiempo, de dinero, de recursos.No sé, la típica tarea que todos los días hago,pero que me cuesta solo hacerla cinco minutos,la podría automatizar, pero es que en automatizarla tardo dos horas.Por lo tanto, no lo hago nunca.Es como un ejemplo muy naif de esto, pero nos pasa a todos.O sea, que la gente esto lo entiende, ¿no?Aparte de que luego hacer esa tarea, entregar esa tarea todos los días,eso tiene además incentivos perniciosos,porque me da la impresión de que estoy haciendo algoy si la automatizo ya no la haría más.Pero nosotros tenemos ese sesgo de no hacerlo.Y eso nos pasa con todo.Nos pasa con todo.Para tú encontrar una solución de inteligencia artificialque te resuelva un problema,tienes que hacer una inversión previa.
Leer más

Escúchalo ahora en

Últimas publicaciones del blog

Zencastr : La herramienta definitiva para grabar tus pódcasts online

¿Qué es Zencastr? Zencastr es una herramienta online para grabar podcasts y en...Leer más

Auphonic : La herramienta para optimizar tus producciones de audio y video

Descubre Auphonic Auphonic es una herramienta online que simplifica la postpro...Leer más

Domina el video marketing: impulsa tus contenidos

Entendiendo el video marketing El video marketing se ha consolidado como una p...Leer más

Podcast elevator pitch: 3 razones para crear el tuyo

Hoy vamos a hablar de algo esencial para todos los podcasters: el podcast elev...Leer más

¿Cómo promocionar un podcast? La guía definitiva

Entendiendo a tu audiencia de podcast Producir tu podcast no es suficiente. Si...Leer más

¿Cuáles son los podcasts más rentables?

Introducción El podcasting ha crecido mucho en los últimos años, pasando de se...Leer más