Avatar

#23-A: i(A)Phone, BYOM en IBM y agentes multi propósito

La Tertul-IA

Presentado por

La TertulIA

Cara A del episodio 23 con la recopilación de noticias de estos últimos días.

Suscríbete a nuestra news, donde encontrarás también los enlaces de los que hablamos en el episodio, en https://tertulia.mumbler.io/

Transcripción

Muy buenas tardes. Saludamos a nuestra audiencia en esta tertulia número 23 que grabamos a las puertas de la primavera.Hemos querido esperar a que pasara el puente porque, claro, esto es muy peligroso.Aquí nos tenéis un viernes más por la tarde porque para los que somos de Madrid hoy es viernes.Estamos grabando martes 30 de abril. Para nosotros es viernes así que aquí estamos puntuales en la tertulia.Hoy vamos a tratar un tema clásico que hasta hace no mucho se veía como algo de ciencia ficción en esto de la inteligencia artificialque es aquello de la singularidad. Un término que acuñó Ray Kurzweil. Ya lo hemos mencionado más de una vez aquí.Que es este periodo en el futuro donde todo de repente hay un avance tecnológico muy rápido.Debido principalmente a que se alcanza lo que se llama la superinteligencia.La inteligencia artificial nos pasa por la derecha y entonces nuestro modo de vida, nuestro mundo, se transforma de una manera irrevocable.Una de las cosas que dice Kurzweil, que a mí también me parece muy graciosa, es que los modelos de predicción que usamos para adelantar el futuro ya no valen.Como si hubiesen valido alguna vez. Así que hoy vamos a hablar de esto porque ha habido un poco de cambio en cuanto a lo que es el consenso.O yo creo la tendencia sobre esto. Se pensaba que íbamos en una dirección y ahora parece que va cogiendo fuerza la opinión contraria.Esto va a ser nuestro tema de debate fundamental pero como siempre haremos cara A noticias, cara B debate, tertulia más pura.Y todo lo que nos dejemos en el tintero ya sabéis que lo encontraréis en nuestra newsletter donde os podéis suscribir en tertulia.mamble.io.Allí tenéis todas las novedades que nos traigamos aquí en un formato más sosegado.Porque aquí es un programa cortito y muchas veces no nos da tiempo. Hay que comprenderlo.No me voy a enrollar más. Saludo a mis co-pilots. ¿Qué tal, Frankie y Corti? ¿Cómo vais hoy?Muy bien, muy bien. Aquí de viernes. ¿Cómo sois los de Madrid?Yo ahora ya puedo decir esto porque como ya no soy de Madrid. ¿Cómo sois los de Madrid que os pensáis que en toda España es como Madrid?Aquí el jueves se trabaja. Bueno, no se trabaja nunca pero se hace como que se trabaja.Muy buenas. Yo efectivamente como no trabajo nunca me da igual el día que sea.Pero encantado de estar aquí y de hablar de este tema tan interesante que yo creo que por una vez a lo mejor hasta así nos da para debatir.Normalmente estamos muy de acuerdo en todo. A ver si hoy no lo estamos tanto.Este desde luego da cancha para que haya aquí opiniones enfrentadas.Si es lo que ocurre por ahí fuera, ¿por qué no también entre nosotros que discutimos muy poco? Estoy de acuerdo.Así que veremos si hay salseo. No vamos a adelantar nada.Si queréis vamos a ir con la cara A. Vamos un poquito con noticias y cositas que molan, que han pasado.Y luego ya pues, oye, nos tiramos los tactos a la cabeza si queréis. Yo estoy más que dispuesto.Así que venga, vamos para adelante. Te doy la palabra Franky para que empieces tú.Vale, genial. Pues empiezo yo esta vez.Ya no recuerdo si íbamos a hablar de ello en el episodio anterior, en la cara A o la cara B o algo así.Pero la cuestión es que Yama, o Meta perdón, ha lanzado Yama 3.Y lo que interesaba de aquí, porque esa noticia ya parece viejuna, aunque fuera de hace pocos días, pero parece viejuna.Lo que llama la atención de aquí es que se hablaba estos días de que se ha entrenado con un conjunto de entrenamiento que tiene 15 trillones de tokens.Eso no me lo puedo ni imaginar cuántos tokens son.Pero son muchos y desde luego son muchos más que los conjuntos que se venían utilizando hasta ahora.Pero más allá del tamaño, que por supuesto importa, lo que me interesaba de aquí era cómo diablos construyes un conjunto de entrenamiento con ese tamaño.¿Qué es lo que hay detrás?Entonces, investigando un poquito, veía que lo que hay detrás básicamente es una, vamos a decir, una organización que está enfocada en crear ese conjunto de datos.Un conjunto de datos que, como digo, son 15 trillones.Y que, se me olvidaba comentar, Yama 3 en este caso concreto, con ese conjunto de entrenamiento, en la versión de 8 billones de parámetros,da mucho mejor resultado que el Yama 2 con la versión de 70 billones de parámetros.Es decir, que más allá de la arquitectura estamos diciendo que tenemos un conjunto que está haciendo que el resultado sea mucho mejor en algunos de los benchmarks.Del orden del doble de mejor, ¿no?No es cualquier cosa.Entonces, como os decía, dándole alguna vuelta por detrás, la fundación que está por detrás se llama Common Crawl, ¿vale?La palabra crawl ya nos da una idea de que son datos cogidos de internet y efectivamente lo que han hecho es coger datos que van desde, o páginas que van desde 2013 a 2024.O sea, tenemos más de 10 años ahí de información.Y está, por lo visto, bastante actualizada, ¿no?Se está actualizando de forma no a diario o no con la información hasta el día de hoy, pero sí hasta poco tiempo antes.Y lo que hacen es cogen las páginas, están en el texto, comprueban que no estén duplicadas.Esto es interesante, ¿vale?Quitan elementos duplicados y todo eso y aún así el tamaño ya vemos cuál es.Y a partir de ahí les empiezan a, bueno, evidentemente está en el texto, quiere decir que quitan todo el JavaScript, todos los tags de HTML que hay.Se quedan única y exclusivamente con el texto y les pasan también algunos elementos de calidad para ver si el contenido cumple unos mínimos de calidad.Incluso te hablan de sesgos también.Intentan que no haya contenido que pueda ser ofensivo, todo este tipo de cosas.Le pasan algunos algoritmos que son muy sencillos y luego ellos mismos dicen que tampoco les importa del todo que se queden algunos elementos que puedan producir esos sesgos,porque al final son parte de lo que escribimos y de lo que somos.Pero, bueno, incluso lo que hacen también es anonimizar, ¿no?Anonimizan, cambian las direcciones de correo, las direcciones IP.Es decir, tratan de crear un conjunto anonimizado y de la mejor calidad posible, entre comillas.Y luego lo han liberado, lo han puesto a servicio de cualquiera que también puede seguir contribuyendo, ¿vale?Para tratar de mejorarlo.Y es lo que, bueno, en este caso concreto ha permitido que Yama 3, en parte, tenga muchos mejores resultados que los anteriores.Y, desde luego, que cualquiera que tenga las santas narices de ponerse a entrenar un modelo con ese tamaño de conjunto, pues lo puede hacer sin ningún tipo de problema.Pero me pareció interesante eso, el que ya empezamos a tener gente que se está encargando única y exclusivamente de crear estos modelos que son la base de los LLMs en este caso concreto, ¿no?Sí, es bastante interesante porque, de hecho, últimamente se está hablando más de este tema porque había una especie de asignatura pendiente con el tema de los datasets, ¿no?Cuando hablamos, por ejemplo, de liberar los modelos Open Source, pues la mayor parte de la gente que lo estaba haciendo, lo que está haciendo es liberar los pesos del modelo ya entrenado.Y a eso le llaman Open Source, pero ahí tienes un problema de reproducibilidad, tienes un problema de que hay issues conocidos dentro de lo que es la inteligencia artificial, como los sesgos, ¿no?O estos malos comportamientos que tienen a veces y tal que pueden estar codificados dentro de un modelo o temas ya incluso de propiedad intelectual o lo que tú quieras.Pero, claro, nadie sabe realmente con qué datos se han entrenado.Y me recuerdo esto que pasó hace pocas semanas, me parece hace mil años, ¿no?Como siempre ha pasado en esto, que a Miriam Moratí, la CTO de OpenIA, le preguntaban qué es hora con que la habían entrenado.Y esquivó la pregunta, ¿no?Incluso lo pasó mal, porque es una cosa que no quieren decir.Y es que, claro, al final, tal y como lo veo yo, llegados a un determinado punto en cuanto a la capacidad tecnológica, si tú quitas otras variables de la ecuación, ¿no?Entendiendo que quien es capaz de entrenar un gran modelo fundacional tiene la capacidad computacional y tiene el dinero.Y entendiendo que ya hay mucha gente que es capaz de hacer un LLM y de sacarlo.La parte importante está en los datos.Es decir, la parte diferencial de todo esto yo creo que está en los datos.Y es normal que esto se empiece... Yo pensaba que íbamos a tener un...¿Mi cámara da problemas? No sé si se me sigue oyendo.Se te oye perfectamente. Se te ve regular que se te escucha.Para el que no esté viendo, si no estáis oyendo que lo sepáis, una inteligencia artificial está tomando el control de la pantalla de luz y ha empezado a deformar la imagen y que se hagan colores.Simplemente las máquinas tratándose de revelar, pero yo creo que el luz lo va a controlar.Parece que alguien no quiere que hablemos de esto, de los datasets. ¿Qué está pasando?Bueno, esa es mi opinión. Creo que la siguiente gran cosa es que hablemos de datasets y de abrirlos concretamente y de compartirlos.Qué interesante. El coste que han tenido para procesar todo esto es de medio millón de dólares.Por lo tanto, al final están abriendo algo que ha tenido un coste relevante.Que es un buen punto. Cualquiera que quiera aprovecharse de esto o construir algo por encima, como pocos, está ahorrando medio millón de dólares.Solo para preprocesar lo que ha contado antes Frank y para ese procesado de datos, preprocesado para que esté listo para que lo puedas mandar a entrenar.Que es algo bastante guay.Ya vuelvo. Perdón. Estoy intentando solucionar el problema técnico. Esta noticia está guay y vamos a hablar también de cosas relacionadas.Yo traigo un poco, perdonadme si voy a ser pesado con esto, pero traigo un poco monográfico de Apple.Voy a quitar la cámara porque esto es insoportable.Venga Frank, ahora nos vemos Frank y se vamos a sentar un ratito. Seguimos nosotros.Traigo un poco monográfico de Apple. Traigo varias noticias.No las voy a soltar todas de golpe porque igual resulta estomagante.Y son además muy diferentes entre ellas, pero todas tienen que ver con ella.La primera de ellas que me ha llamado la atención es esta noticia en Bloomberg que dice que Apple intensifica sus charlas o sus conversaciones con OpenAI para traer cositas al iPhone.Concretamente a iOS 18.Lo asociamos al iPhone, pero bueno, a todos sus dispositivos con este sistema operativo.Es una cosa yo creo que es significativa porque Apple además tiene pendiente una keynote que han dejado caer que va a traer cositas importantes en junio.Están considerando la integración de herramientas de OpenAI, pero también, que lo dijimos en el programa, están hablando con Google.Que es todavía un movimiento que llama más la atención porque Android en temas de software para dispositivos móviles es su única competencia directa.A mí esto me parece significativo porque Apple ha tenido con el tema de la inteligencia artificial un enfoque tradicionalmente bastante cerrado.Y esto abre el abanico de posibilidades y también abre otras cosas.Si estamos hablando de OpenAI, tal y como entendemos la manera que tiene de funcionar OpenAI, los datos, por ejemplo, de las consultas y las respuestas tienen que viajar por la red y este tipo de cosas.Esto es algo que Apple tradicionalmente ha ido un poco a la contra con todo esto.Pero no sé cómo lo ves tú, Corti.Yo me he atraído al ver esta noticia y digo, oye, ¿y qué ha pasado con el proyecto este de Sam Alman con Johnny Ive que hablaban de hacer como el iPhone de la IA?A saber lo que tenían en mente, no tenemos ni para joler la idea.Pero es verdad que había unos movimientos que se han ido hablando en dos momentos en el tiempo en los que se comentaba que había un proyecto de Alman que iba en esta línea.Y yo no sé si llegan posteriormente a un acuerdo Apple y OpenAI, pues no sé si eso implica que no haya otro tipo de movimientos, es algo totalmente independiente o demás.Y con respecto a lo que decías de acuerdos con Google también, es curioso, el otro día también salía como otro tema totalmente separado,pero la noticia de que los de Google creo que pagan casi 20 billions, creo que 18 concretamente, al año Apple porque aparezca Google como navegador,o sea, como buscador predeterminado en los iPhones y demás y que era como el equivalente a toda la inversión de Apple en I más D.Por lo tanto, hay una dependencia bastante fuerte. Es curioso cómo se interrelacionan unos players con otros y como muy seguramente las estrategias de uno dependen de las estrategias de otroy sea todo más conectado de lo que pueda parecer.O al menos es lo que parece.Finalmente sí. Perdona, es que te tardo en contestar porque estoy tocando cables para intentar reparar mi cámara, pero vamos, tiramos para adelante.Yo no sé si hay interdependencias entre unas cosas y otras. Realmente son compañías tan grandes y las líneas que tienen de actuación pueden ser tan diversasque tradicionalmente pasa esto. Un trato en un área, incluso aunque esa área sea la misma en la que ocurre lo contrario, no quita que se haga la competenciay que se intenten pisar en cosas muy cercanas. Hasta dónde va a llegar esta colaboración si es que se materializa, que es lo que parece que va a pasar.Que va a haber algún tipo de IA tipo chatbot integrada en IOS 18 y esto puede tener la forma clásica que todos nos estamos imaginando o puede ser una cosa totalmente novedosa.¿Hasta dónde puede llegar esta colaboración? Pues a lo mejor es para un momento puntual ser un cliente preferencial de los servicios de OpenAI y ya está.Eso no quita que OpenAI por otro lado tenga otra línea y esto también. Es curioso cuando menos.Hablando de todas estas compañías, también salió esta semana varias noticias. Los titulares de los periódicos son traicioneros porque tienen una parte de verdad y otra parte que no tienen muy claro el cómo.Pero los titulares, varios de ellos, va por la línea, por ejemplo uno de ellos, la apuesta por la inteligencia artificial impulsa los beneficios de Microsoft y Google.Y otro titular que también dice que Mark Zuckerberg jugó bien con la inteligencia artificial, sus ingresos subieron un 27%.Luego leyendo un poco las noticias, no sé cuánto hay de inteligencia artificial y cuánto no, pero sí que es verdad que en los tres primeros meses del año Microsoft ha registrado un aumento del 17% de sus ingresos y de un 20% de los beneficios.Y Alphabet en este caso aumentó un 15% sus ventas y un 36% sus beneficios.En el caso de Meta estamos hablando de un incremento de ingresos del 27%.Yo, desentrañando las noticias y un poco análisis, tampoco veo tan claro el impacto directo de la IA en todo esto, al menos el directo.Pero sí que me entra la duda de hasta cuánto punto puede haber impactos indirectos en el sentido de que al final son compañías que todas ellas están lanzando continuamente noticias sobre cosas que están haciendo con IAy que eso probablemente pueda estar repercutiendo tanto en posicionamiento de mercado, como en mejora de visibilidad, como en otra serie de cosas.Que la IA además de poder aportar temas operativos, optimizaciones, incluso mejores resultados en cosas, también puede ser que esté siendo como una buena campaña de marketing para muchas de estas compañías.Además de manera tan transversal, porque estas compañías lo que tienen en común, en muchos casos que son muy grandes y que son tecnológicas, pero venden cosas muy distintas.En algunos casos, como hemos dicho antes, no son tan grandes, hay tantas cosas que en algunos casos se pisan.Pero a nivel global, pues oye, lo que hace Microsoft y lo que hace Google, pues se parece en una parte y en otra no.Y si reportan beneficios, no en un área concreta, porque podrían decir nuestro beneficio de servicios de cloud, pues han subido.Y eso ha sido por la IA, pues entendería mejor, pero hablan de una cosa como muy genérica.En el caso de Google, por ejemplo, se han crecido tanto en ingresos, estamos hablando de ingresos, por supuesto.Nadie dice lo que se están gastando en inteligencia artificial, pero si han crecido tanto será porque han vendido más de lo que venden ellos, que no es el servicio de cloud precisamente.En el caso de Microsoft será otra cosa, a lo mejor han crecido más en Azure precisamente, que es un pepino ahora mismo.Pero, factor común, ¿qué está pasando? Inteligencia artificial. Y esto también habla un poco de la transversalidad de esta tecnología, que puede afectar a todo.Si es una ola pasajera o no, pues ya veremos. Pero bueno, aquí yo la lectura que me llevo de esto particularmente es que a río revuelto ganar lo de siempre.Sí, al final el dinero va donde está el dinero. Eso es verdad, si lo sabes ejecutar bien, que yo creo que al final lo que están haciendo estas compañías también es que,oye, con sus más y sus menos, que algunas veces hemos aquí un poco criticado un poco más a Google a lo mejor, pero están evidentemente surfeando la ola,particularmente en Microsoft y Meta, lo hemos hablado muchas veces, cada uno con enfoques totalmente distintos, pero están capitalizando muchísimo todo esto y se están posicionando muy bien al futuro.Y Google últimamente parece que se está espabilando también con esto.Sí, sí, totalmente. Y es eso, si hay una cosa que saben hacer, es dinero. O sea, que ahí seguirán. Vamos a seguir con Apple. Déjame traer una más de Apple.Una más, por favor. Porque es que leí un artículo el otro día en más rumos que habla de Siri. Hace poco estuvimos aquí en la tertulia hablando de los asistentes y nos preguntábamos,oye, ¿qué pasa con Siri, con Alexa, que siguen igual que en 2017? Le pregunto el tiempo. Sí, pues ya está. Mi relación no ha cambiado con Siri.Pues, ¿qué pasa con Siri en concreto? Bueno, pues hay un artículo de más rumos. Y más rumos pues te lo tienes que tomar como lo que es, como un rumor.Pero bueno, que se basa en. Pero más rumos es un sitio reputado. O sea, no son unos aficionados que estén tirando fake news con inteligencia artificial ni nada por el estilo.Es un sitio de referencia, sobre todo. Al menos el Buyer's Guide es una cosa importante que muchos hemos usado para saber si era el momento de comprarse un iPad o había que esperar y ese tipo de cosas. Está muy bien para eso.Pues en más rumos hablan de cosas que han pasado por dentro en Apple. Hablando de Siri, pero también de muchas más cosas. Es que es una cosa tocha. Y esto se basa en los testimonios de unos cuantos ex empleados de Apple.Ex empleados, además, que se dedicaban a ingenieros relacionados con desarrollo software e inteligencia artificial, en este caso. Y el desarrollo interno de lo que el proyecto se llama Siri X, que es como la evolución del asistente con unas capacidades por encima.¿Eso es Siri porno o cómo vas a decir buenos días y te dicen hola guapo?Esta gente hemos hablado de que sabe dónde está el dinero. En su día Steve Jobs se puso en contra de esto, pero ya no está el abuelo. No descartemos.La cuestión aquí es que hablaban estos ex empleados de que internamente en Apple hay una cierta disfunción a nivel organizativo, si queremos verlo así, y una falta de ambición.Esto conjugado con una falta de ambición en cuanto a lo que es progreso en inteligencia artificial, que les está haciendo muy difícil retener el talento. Ellos hablan de ellos mismos, pero retener el talento necesario para desarrollar este tipo de tecnologías.Luego hablan de las razones que nos metemos, pero esto a mí me recuerda al episodio relativamente reciente en el que el equipo de Ian Goodfellow, que es una persona muy importante en inteligencia artificial, abandonó Apple.Y esto se achacó al return to office después de la pandemia, que fue muy agresivo en Apple. Y en su equipo dijeron hasta luego. Pero claro, esto es una cosa más. Es como echar más leña al fuego.Y parece ser que, y hablan solo del proyecto de Siri, pues lo que ocurría es que a esta gente no les sucedía el proyecto porque no les dejaban avanzar. Y como digo, esto hay que tomárselo como un rumor y como unos testimonios que dice una gente.Porque Apple, ya digo que traemos varias noticias hoy, cosas están pasando. Pero en el caso de Siri en concreto, pues parece ser que no les dejaban recabar, una cosa muy concreta, el equipo de diseño no les dejaba recabar las analíticas que ellos necesitaban para mejorar los modelos.Y eso, lo decía Dero Basanjo el otro día en Twitter, que es curioso ver como una compañía como Apple no se basa en la analítica como primer aseta a la hora de tomar decisiones, que parece que no es muy data driven esto.No te dejo meter una featura en Siri para dar feedback sobre las respuestas que están mal. Se referían concretamente a esto, que lo necesitaba la gente de Machine Learning para mejorar los modelos. Los diseñadores no quieren meter esto porque hay que dar la impresión de que Siri nunca se equivoca.A mí me choca un poco, porque las compañías modernas siempre te venden, sobre todo las americanas, que se basan muy en los datos y en la estadística y bla bla bla. No, aquí son unos señores, y señoras seguramente, que están allí, no sé, habla de diseñadores, entiendo que como estos son developers pues se meten con los diseñadores.Pero yo veo ahí como un omni del manager diciendo, no, aquí se hace lo que yo digo. Que va un poco con el rollo de lo que decía también Steve Jobs, pero claro, no todo el mundo es Steve Jobs. Así que, no sé, es curioso el artículo.Total. O sea, a mí lo que me choca es eso, el como no querer. O sea, al final es la típica, caso ejemplo, de te ahogas con tu propia realidad. Por el hecho de no fallar o no decir algo que no debe, estás dejando de aprovechar una oportunidad de poder hacer algo útil.Es decir, tienes un producto, funciona como una puta mierda, porque si funciona fatal, pero prefieres eso a que pueda funcionar mejor con el riesgo de que si alguna vez la cagues. Dices, pero si es que la estás cagando porque es que no resuelve ningún problema.Así es. Y a mí me hace preguntarme si el movimiento del equipo de Gandulfellow también tenía que ver con este tipo de cultura interna, que querían hacer cosas y no pasaban cosas.Esta gente a su alrededor está viendo que pasan cosas y no se va a quedar ahí a perder el tiempo, evidentemente. Como digo, traemos más cosas de Apple y pasan cosas.Pero estas compañías son tan grandes que quizás esto pase en una área y en otra no, en otra pase lo contrario. Eso también es posible. Pero a mí me llama la atención esto, que no se basen en los datos. Es algo que llama poderosamente la atención.Mira, Frankie, como ha vuelto, te dejo que nos traigas una noticia.¿Pero Corti ha contado la primera también suya o no?Sí, sí.Sí, sí. Dale, dale.¿Cuántas cosas en esta?Frankie se ha extrañado y dice, pero si estos en media hora han sido capaces de…Se ha ido. Hablando yo, ha vuelto y sigue hablando yo.Y no le ha chocado. Fíjate, ha dicho, no me choca.Lo lógico.Vale, pues, perfecto. Vamos a por lo siguiente. En este caso concreto, en Hugging Face, o asociado a Hugging Face, han creado un modelo que llaman Jack of all Trades.No me acuerdo ahora mismo cómo se traduce directamente al español, pero básicamente es un Jack of all Trades. Es alguien que es capaz de hacer cualquier cosa, que se desenvuelve más o menos bien con cualquier cosa.Y en este caso concreto, pues, es un… Hablan de LLM, hablan más bien de agente, que es lo que es, que trata de ser generalista.Ya hemos comentado aquí unas cuantas veces que los LLMs a día de hoy, aunque estén centrados en texto, en muchos casos son sistemas que luego, en función de la pregunta, incluso van disparando a sitios distintos.Como LLMs pequeñitos que están como especializados. Algunos intentan ser generalistas. Desde luego, si tú le preguntas a JackGPT y le pides que te saque una imagen, pues, va a utilizar Dally.Si le pidieras un vídeo, seguramente utilizarías Aura, ha llegado el momento. Y si no, pues, GPT. Sabes cómo está todo bastante compartimentado.Y en este caso concreto, lo que querían era tener un único modelo, por decirlo así, entrenado, de manera que fuera capaz de entender y dar respuesta a todo. A imágenes, a vídeos, a texto.Incluso tiene algo de aprendizaje por refuerzo y es capaz de interactuar con sistemas y aprender a jugar, por ejemplo. Todo ese tipo de cosas.De momento es algo experimental. No es que haya un sistema, un juguetito que puedas utilizar fácilmente a día de hoy. Pero bueno, es curioso que mientras parece que el futuro, por decirlo así,futuro entre comillas, porque ya está aquí desde hace algún tiempo, son los agentes, donde los agentes al final son sistemitas.Tienes incluso LLMs que se ponen en medio para desgranar la pregunta o la tarea que les has pedido en otras más pequeñitas y resolver cada una por separado y luego integrarlas.Y en este caso, en lugar de utilizar ese approach, lo que quieren es el approach de, como os decía, un solo sistema que haga absolutamente todo.Lo que sí parece caro, sea cual sea ese enfoque, el enfoque que utilicen, es que la gente empieza a estar obsesionada con ir un paso más allá.Porque al final los LLMs, y esto seguramente para cuando vayamos a la tertulia es algo que va a salir.Pero parece que los LLMs están quedando obsoletos en algunos puntos y necesitamos algo más.Que resuelva tareas de planificación, que resuelva tareas un poco más complejas que lo que nos da ahora mismo.De momento no se puede utilizar, pero parece que vamos por ahí.Por la capacidad de resolver diferentes tipos de tareas de diferente naturaleza en un solo sistema.Tiene buena pinta. Yo creo que has dado con la clave que lo vamos a hablar luego.Tampoco nos tenemos que enrollar en esto porque tendremos ocasión.Pero claro, hay que desafiar un poco por lo que se está oyendo por ahí.Hay que desafiar un poco el modelo que tenemos de arquitectura y alcance de distintas capacidades que tienen los sistemas con los que estamos trabajando ahora mismo.Porque estamos usando, o intentando usar, se ha vendido un poco la moto de que usáramos lo mismo para todo.Que un LLM iba a servir para resolver cualquier problema que tuviéramos por delante, pero al final parece que hace falta algo más.Y este tipo de arquitecturas, arquitecturas de asemble o donde se juntan más tecnologías, no solo de transformers incluso.Se ha hablado del mensaje por refuerzo. Y se puede abarcar un número de problemas mayor.Y como dice la expresión en inglés, Jack of all trades must have known.Bueno, pues quizá esa sea una mejor dirección.Lo digo porque en muchos sitios se vende un poco la idea, como pasa con esto de Devin y tal, que volvió por cierto.No sé si tenemos una noticia por ahí de Devin.Pero se vende un poco el rollo de que va a sustituir al humano.Pero a lo mejor lo mejor que podemos hacer es tener un Jack of all trades must have known.Es decir, tener una navaja suiza que el humano es capaz de usar de la mejor manera en cada situación y te sirve un poco para todo.En lugar de tener que estar montando una solución distinta para cada problema, intentando retorcer las cosas de forma que encajen.Meter la pieza redonda en el cuadrado a puñetazos, que es lo que pasa muchas veces con los LLDM.Y además intentando llegar a una performance que hoy en día en casi ningún problema es posible.Una performance de sustituir a la persona de manera total.Y eso ocurrirá con algunos problemas, pero no solo con la inteligencia artificial.Eso ha ocurrido en las plantas de embotellado.Pero porque la tecnología es lo que va haciendo con el tiempo.Pero quizá para lo que tenemos delante sea mejor solución.A mí me gusta la propuesta bastante.Dentro de que, como tú has dicho, esto no está disponible.No, no está disponible.No sabemos si funciona muy bien o muy mal.Pero cuando se intenta resolver un problema de varias formas distintas y parece que hay interés.Viendo la experiencia que estamos teniendo últimamente, parece que queda poco.Si no resuelto todo, al menos sea bastante aceptable.Sobre todo esto, y un poco off topic, pero me ha venido a la cabeza.En el podcast de Less Friedman, hace poco he entrevistado a Ann-Edward Gibson, que es un psicolingüista.Y sacaba algún tema interesante, como la no correlación del lenguaje con inteligencia.Pero al final hay una cierta hipótesis, yo creo, que hemos tenido la humanidad casi siempre.Que es lo que nos ha llevado a pensar que nosotros somos inteligentes y los animales no, por ejemplo.Que esto está cambiando esa percepción, que tiene que ver con el desarrollo del lenguaje.Es decir, los humanos somos más inteligentes porque desarrollamos las capacidades del lenguaje.Pero curiosamente, también hay muchos análisis, hablaba alguno de ellos, este hombre de Gibson.De sitios o tribus que no han desarrollado tanto el lenguaje.Pero tienen otra serie de capacidades, pues matemáticas, espaciales y demás desarrolladas.Lo que pasa que es verdad que como nuestros test de inteligencia dependen mucho del lenguaje para poder, por ejemplo, definir tu IQ.Depende mucho de que tengas la capacidad del lenguaje desarrollada.Porque es casi como una definición nuestra de lo que consideramos inteligente.Y esto lleva a los LLM, creo que en cierta manera, como pensamos que dependemos tanto del desarrollo del lenguaje para ser inteligentes.Yo creo que también ha habido un cierto proxy de los LLM son la cosa, como el proxy para la cosa más inteligente.Porque desarrollan el lenguaje que es lo que nos hace inteligentes.Y todo va confluyendo a que el lenguaje es una parte de la inteligencia.Pero evidentemente hay muchas otras que tienen que ver un poco con la lógica.Decía Frank que al final tienes distintos modelos para distintas cosas.Y otra cosa es que tengas algo que lo integre.Pero seguramente en nuestro cerebro se procesa información visual de una forma distinta que el lenguaje.Y este tipo de cosas.También comentamos sobre el episodio del Freeman con LeCun donde hablaba de la diferencia de bytes en el lenguaje versus el nervio óptico y demás.Que hay cosas interesantes.Total.Muy interesante.Veremos cuando lo tengan disponible.Luego voy a sacar la tertulia a este tema.Pero yo últimamente estoy muy obsesionado con esto de las demos y de las cosas que nunca llegan.Pero bueno, esto vamos a decir que está en el campo de la investigación.No es que nos estén prometiendo aquí.Ni nos estén haciendo pagar.También os digo, no lo he comentado y me venía ahora a la cabeza.Realmente el objetivo inicial no era tanto crear un generador de lenguaje como otro tipo de tareas.Pero lo que han hecho es, además de lo que ya estaban haciendo, de las otras tareas que estaban haciendo.Que parece que los resultados ahí, al menos por el benchmark que ellos demuestran, debe ser bueno.Le metieron también esa parte de generación de lenguaje.Incluso muy basado en características similares a GPT-2.Ya estamos hablando de algo bastante lejano.Luego hablaremos de otra cosa que está relacionada con GPT-2.Que parece lejano.Pero ellos reconocen que el resultado de la generación de texto de su sistema a día de hoy no es buena.Sobre todo en comparación con el estado del arte.Ellos mismos ya te lo están diciendo y de hecho piden contribución para gente que les ayude con eso.Pero es igual, lo que les interesa es la capacidad de poder hacer un poco de todo.Esa navaja suiza que tú comentabas.No van diciendo somos la leche y nuestro agente es lo mejor que hay.Como efectivamente escuchamos en otros casos.Que ahí es donde a uno se le despiertan las alarmas.Eso es.Eso es.Pues nada, veremos.Traemos al loro de lo que hace esta gente.Muy bien.Corti.Voy a traer una noticia.Salto una que he tenido por aquí y voy a tirar para otra porque me apetece contarla.Es que el otro día Armand Ruiz, que es el vicepresidente de Product y Platform de IBM.Que además es un español que hace poco ascendió a esta posición.Aunque ya estaba muy metido en todas partes de IBM.Contaba una noticia, una novedad de Watson X.Nueva plataforma de IBM.Y es el Brand Your Own Model.Un poco como recuerda el Brand Your Own Device.Que se puso muy de moda en su día.De poder utilizar cualquier dispositivo.De poder llevar cualquier modelo fundacional a la nube.Al cloud para allá de IBM.Que creo que es un enfoque.Yo no diría que son los primeros.No pretende estar haciendo esto.Porque al final en Amazon tienes Berro.Casi todas las plataformas te dan una serie de modelos preconcebidos.Pero no con tanta facilidad para traer tus modelos fundacionales.Entiendo que aquí hay un tema de diferenciación.A IBM se le han echado mierda también encima sobre esto.Que en su día están como muy avanzados en IA.Y ahora en esta última carrera quizás han quedado un poquito más atrás.Pero creo que también están haciendo apuestas un poco disruptivas.O nuevos enfoques.No sé cómo lo veis.Por apuntar el tema de Berro y todo esto.El approach que están siguiendo los otros proveedores de cloud.Es que ellos usan modelos open source y tal.Pero son ellos los que deciden que está ahí desplegado.Hacen sus tratos con quien sea.Y te los ponen disponibles.Y te dejan hacer fine tuning o lo que haga falta.Pero esto es distinto en ese sentido.Es más como un servicio que hace esto.Justo lo que iba a decir.Si tú no puedes tener producto.Pues lo que puedes hacer es actuar como canal.Y al final es lo que están tratando de hacer.Entonces, en este caso,también tienes que estar empezando con albums primeros.De manera que te lo pasas con esta mano.Tú puedes hacer,presentar un mural o cualquier documento que tú quieras hacer.gotta get creativia.Ann doce.Aquí.Entonces,Juan,¿estas preparandose para bajar con cousin no?No nos suena como que está lejos, ¿no?Me refiero a nivel de marca, quizás.No nos suena como que ese pueda ser su papely seguramente van a tener que lidiar muchocon darle la vuelta a la tortilla.Sí.Es un cambio de enfoque, ¿no?Pero para mí tiene sentido.Por ejemplo,el sitio en el que trabaja Armand Ruiz se llama AI Platformy esto te describe claramenteesa idea de plataforma, ¿no?Una plataforma más o menos agnósticadonde dan distintos tipos de servicios de computacióndedicados a distintas arquitecturas y tal.Y yo creo que aquí entran a competir,quizás con envidia más bien, ¿no?No en el desarrollo de GPUs, no en la construcción,pero sí en ofrecer infraestructurapara más de un nivel un poco por debajopara este tipo de gente.No sé cuál sea el tamaño del mercado con esto,pero es una apuesta un poco más a medio-largo plazopero que puede ser importante,porque si tú te posicionas bien ahíy eso se convierte en necesidad, ¿no?Y la gente no le interesatener el locking con AWS o con Google o lo que seaque pues tendrán unas condiciones comoutilizando su posición dominante como siempre han hechopues bastante poco apetecible para según qué gentepues la gente a lo mejor coge y dicepues me voy con IBM, hasta luego.Y la única manera de usar no sé qué es con ello.Veremos.Hay un tema que me parece quizá pueda tener cierto peligropara ellos y no sé si lo ponía en la noticia o no,si van a realizar algún tipo de controlsobre esos modelos que se suban a la plataforma.En el fondo cualquiera podría subir cualquier mierday al final eso también tiene impacto en su imagen de marca, ¿no?Si tú vas como empresa confiando en que hay un LLMque está en IBM, lo vas a utilizary de repente te causa ciertos tipos de problemas,seguramente vayas a empezar a desconfiarde lo que parezca eso.Esto sí te pasa dos veces, lo digo ya una.Pero no sé.No sé si en ese sentido van a tratar de hacer algoo lo van a dejar completamente abierto.No estoy viendo las noticias,no llegan a ese nivel de detalle ni en la propia web de IBM.Es que depende un poco del caso de uso, ¿no?Es decir, esto no creo que sea una cosa deyo me hago una cuenta y tengo un botón de subir mi modelo.O sea, seguramente estamos hablando de modelos fundacionales.Es decir, es una cosa tocha, ¿no?Y que no se despliega fácilmente y tal.Entonces, a ver, el caso de uso que describen, ¿no?Bueno, hay determinado tipo de compañíasque necesitan tener sus propios modelos en entorno cerradocon una computación.No es lo mismo que ponerlos en internet, ¿no?Que también puede ser un caso de uso, ¿no?Si tú lo que quieres hacer es vender inferencia de tu modelo o lo que sea.Pero yo entiendo que la ceremonia de subir ese modelo a su cloud,pues comprenderá una serie de servidumbresque pasarán también por hacerle auditoría seguramentey otras cosas muchísimo peores.Aquí también, por ejemplo, viendo la noticia,¿no queda claro si tú subes el modelo y solo lo puedes usar en tu organización?¿O lo puedes hacer que esté a disposición de otros?En línea con lo que decía Frankie.A lo mejor, es que si solo lo usas en tu organización,it's your problem.O sea, es como si has subido un modelo que es una mierda,es tu problema y te quitas todo eso.¿Qué es distinto de ese enfoque?A lo mejor decías tú, Frankie, más tipo Spotify.¿Qué es lo que puede tener AWS con su marketplace, por ejemplo,de instancias con software preconfigurado?Que es algo que es como más abierto, ¿no?Y a lo mejor es un primer paso y a futuro se plantean otra serie de cosas.Pero aquí hablan como que tiene una serie de modelos fundacionalesya accesibles aquí.Bloom, GPT, Llamados, Mistral, MT5.Una serie y tal.Y que luego puedes subir el tuyo,pero leyendo en ningún momento queda claroo da pie a que pueda ser algo como más tipo marketplace,donde tú luego encima lo puedas exponer a los demás.Sí.Vamos a hablar de cosas muy hardcore metal como model architecture typesy cosas por el estilo.Te dan una idea de que esto es para otro tipo de cliente,más especializado.¿En qué se puede convertir?Pues nada, veremos.A ver si luego tendrán en la cabeza cómo monetizarlo.Entiendo que del uso que se haga...Esto se puede hacer de varias formas, ¿no?Pero yo no lo veo como una cosa plug and play.Ya veremos.Voy a traer, permitidme, la última de Apple.Hoy me ha dado con Apple y hemos hablado en algún caso mal,en otro bien, en otro no teníamos ni idea.Pero esta noticia a mí me gusta especialmenteporque han anunciado una familia de modelos Open Source eficientesque llaman ellos Open ELM, Efficient Language Models.Bueno, son ELMs.Las características fundamentales son que son ELMs,pero que ellos dicen que son mucho más baratos de entrenar,baratos en el sentido de que necesitamos menos computacióny también menos datos para obtener la misma performance.Pero a mí esto vale guay, gracias.Me parece que además va muy alineadoporque tienen algunos muy pequeñitos y tal.Va muy alineado con su idea de que se ejecuten los dispositivos y tal,aunque algunos de ellos son tochos.Pero bueno, sí, que los tienen muy pequeñitosy con una performance buena en los benchmarks de mercadoen comparación con otros.Perfecto, el modo Open Source.Pero a mí lo que me parece una cosa diferencial de este movimientoes que liberan todo.Es decir, ellos hablan de reproducibilidad en esto,y lo hablamos antes,y entonces están liberando datos de entrenamiento,están liberando cómo han hecho los benchmarks,no se han limitado a darte lo que es un artefactoque contiene los pesos en un formato que seay luego tú si quieres haces inferencia,si quieres lo usas como una caja negra,sino que aquí lo que están haciendo es un poco empoderar a la comunidaddel Open Source para que trabaje con estode una manera que va más allá, bastante más allá.De cómo se viene haciendo de manera clásica por otras grandes playas,que es como Meta, por ejemplo,que van muy con la bandera del Open Source,pero lo que liberan son un conjunto de pesos.Está guay,y que le pongan unos términos y condiciones bastante laxos y tal,pero lo que tú puedes hacer con eso es bastante limitado.Tú puedes hacer uso de ello y esperar a que te saquen el siguientea ver si funciona mejor.Esto va un paso más allá,y que lo haga Apple, a mí eso me parece bastante significativo.Como decíamos antes, en un departamento de Siri, en ese caso,pues Machine Learning mal,pero en otro Machine Learning muy bien.Las empresas son tan grandes que pueden pasar estas cosas.Pero bueno, en cuanto a lo que es la cultura de Apple,esto es una cosa bastante significativa desde mi punto de vista.Lo tenéis en GitHub, amigos, si queréis echarle un ojo.Están como locos últimamente, ¿no?Les han puesto unos OKRs de difusión o algo.Dicho, chavales, tenéis que salir en prensa.Sí, sí.Ya nos sorprendió también en su momento,y ya empieza a hacer un tiempito, no es algo tan nuevo.Cuando Meta empezaba a liberar también modelos,cuando empezaba a hacer contribuciones a Open Sourcey todo este tipo de cosas.Ahora lo hemos normalizado, pues quién sabe,igual dentro de un par de años esto lo normalizamos tambiénen el caso de Apple.Pero Meta, antes conocido,el artista antes conocido como Facebook,tiene un track record de proyectos Open Sourcebastante nutrido.Porque los creadores de React, ¿no?Y de muchas otras cosas.Entonces, en Meta no te extraña tanto, ¿no?Porque dices, bueno, no sé cuál es la idea que tienencon el tema de Yammer y tal,en cuanto a lo que es sacar pasta,pero Meta tiene esa cultura.Pero es que Apple esto no ha hecho en la vida.O sea, Apple siempre ha sido que no te enteras tú.O sea, te enteras el día que sacan el productoy te dicen, y lo puedes ir reservando que en 15 días está.O sea, para mí Apple siempre ha sido eso.Vamos a esperar a keynote a ver qué dicen, ¿no?Y ahora, pues se suben al carroy además es que quieren ir a más, ¿no?Como envido más con el tema de abrir las cosas.Y bueno, choca bastante, ¿no?Entonces, ¿qué es lo que me pregunto yo?¿Qué es lo que motiva a que haya este cambio?De mentalidad.¿Es que, por ejemplo, tendrá que ver con lo que hablamos antesde que se les está yendo a la gente?¿O que tienen un problema grave para retener y captar talentoen el campo de la inteligencia artificial, por ejemplo?A lo mejor todo esto lo hacen porque dicen,oye, o hacemos cosas que a la gente le motiveno la gente aquí no va a querer trabajar.Porque una pasta también le pagan los de Metao los de Google, ¿no?Ese tipo de ingeniero típico de Silicon Valley, ¿no?Esos ya de por sí, pues oye, están en un proyecto un tiempoy luego se van, ¿no?Pero quieres que por lo menos quieran venir a tu empresaporque si no, te caes por detrás.Bueno, ya sabéis, no recuerdo cómo se llamaba la técnica esaque decían de pregunta por qué cinco veceshasta que llegues a la raíz del problema, ¿no?O de la cuestión o de lo que sea.Para mí si preguntas por qué ni siquiera tienes que llegara cinco veces, al final del todo siempre va a estar el dinero, ¿no?¿Cuál es la motivación? Va a ser el dinero.Entre medias va a haber cosas que te lleven hacia el dineroy que puedan ser más marketingianaso justificarse mejor o peor.Si esas cosas entre medias de alguna forma, pues, yo qué sé,les ayudan a contribuir más a la sociedado cualquier tema de eso, si son positivas,pues bienvenida sea, pero vamos.Yo no tengo ninguna duda de lo que hay detrás de todo estocomo cualquier otra empresa, por supuesto.Total.Yo cuando he hecho esto de los porqués,me ha pasado como en la canción aquella de...¿Cómo se llamaba?De Círculos viciosos, del disco de la mandrágora,que vuelvo otra vez al principio.Al principio.No quiero decir nada sobre los dobladores, pero como no puede ser de otra manera, hacíagastarse cada vez menos dinero en la locución. Yo eso lo he notado, al menos. No sé si vosotroslo habéis notado. Recuerdo el audiolibro de Dune, no sé si lo habéis escuchado, en versiónoriginal, que eso había como actores, música, era de los primeros. Y luego la cosa fue degenerandohasta que, en algunos casos, no en todos, porque hay algunos que están muy bien locutados,pues lo hace mi primo. Porque lo ha visto en un foro que le pagan un euro la cien milpalabras. No sé cómo se pagará eso. Pero, claro, una manera de aumentar la calidad deaudio, además, joder, si es con la voz del autor, usándola ahí, me parece una hostia.Aquí también, un poco en defensa de todo esto, lo estuve hablando con Roberto, quees el CEO de libros.com, y es que, por ejemplo, producir un audiolibro es muchas veces máscaro que producir un libro. Y las ventas son mucho menores, porque al final vas al nichodel nicho. Entonces, ¿qué pasa? Que si te vas a un libro de Brandon Sanderson, porejemplo, un libro que tiene mucha audiencia, pues el audiolibro tiene mucho movimientoy ahí es donde notas que hay las voces, hay un curro distinto. O Juan Gómez Jurado, autorespañol, que los audiolibros la voz lo hace la voz de, creo que es Siri o Alexa. Es queno me acuerdo el nombre de la actriz, pero tiene una voz muy guay y está súper currado.Al final, lo mismo, a los top libros, como saben que lo van a rentabilizar, le metenpasta, pero es que en el resto de libros por costes es que no te sale. Yo, de hecho, produjoun audiolibro de futuros posibles, un libro de relatos de ciencia ficción no hace tiempo,lo sacamos en autoedición y contraté a una locutora y demás para hacer, eran relatitos,no era muy largo y te gastas una pasta bastante interesante total para venderse tres copiasdel audiolibro. Al final, para muchas cosas hay que entender eso, que la AI no va a permitirgenerar este tipo de cosas en contenidos que, por ejemplo, en contenidos o oportunidadesque no son tan masivas y, por lo tanto, tú no le puedes meter 20.000 euros a producir.Lo hemos comentado otras veces con imágenes, las últimas veces también con vídeo, alfinal lo que haces es que empresas o particulares que antes no se podían permitir hacer ciertascosas porque no tenían la capacidad ellos o porque no podían pagarlo, o bien una ilustración,un cartel, un vídeo, sobre todo cuando esté un poco más evolucionado y tal, esto te permitetenerlo quizá no perfecto, si lo quieres ver así, pero es igual, tienes algo que vaa estar muy bien, que va a estar mucho más que aceptable y que te permite tener tu audiolibro.Ya que has escrito el libro y has vendido tres ejemplares, pues haces un audiolibroy vendes otro más y por lo menos lo tienes ahí. Es una manera de democratizar. Esa palabraque odio un poco, pero que en el fondo sí que viene al caso aquí, ¿no?Totalmente. Y se ven beneficiados tanto, o sea, hemos beneficiado a los autores y losoyentes, en este caso, ¿no? Escuchantes, ¿cómo se diría? No puedo decir lectores,no está leyendo. Y son dos piezas importantes en la relación, no son los únicos, ¿vale?Así que bueno, si mambler.libros.com, pues cojonudo.Y parece que el longtail tiene que quedarse como sin calidad, ¿no?No solo podemos escuchar blockbusters, hay mucha literatura muy interesante. Un ejemploes este que te has puesto de relatos, ¿no? Que editaste tú. Estuvo bastante guay. Sieso te lo escuchas con calidad, te viene guay. Y lo otro, pues lo de la transcripción, esque eso tiene una potencialmente de uso que no me cabe en la cabeza. Eso es algo que tieneque pasar. Seguro. Y ya. Bueno, si queréis leeros la tertulia, también lo podéis hacer.Lo imprimís. Para conciliar el sueño, tiene que estar genial. Claro, la típica lecturitaantes de dormir, dos horas. Oye, quedan un montón de noticias, pero es que llevamos unahora aquí. Entonces, si os parece, podemos pasar a la cara B. ¿O tenéis alguna que seaimposible no mencionar? Si se lo preguntas cinco veces a HGPT, ya empieza a mostrartetodo pixelado. Lleva un punto que es como súper retro. Empieza a salir un modo de verdad.¿Tú tienes alguna más por ahí? Mira, yo acabo con un autopromo. O sea, no voy a aprovechareste espacio para contar mis mierdas. ¿Qué tiene que ver con IA? O sea, hay que aprovechar.Para algo que hago de IA, más allá de hablar, pues lo casco aquí. Esta semana hemos lanzadoun par de cosillas en Mumbler, que tiene que ver con IA. Mumbler es uno de mis proyectos.Además, creo que vosotros dos sois inversores. Muchas gracias, chicos. Donde ayudamos a loscreadores de contenido a monetizar su contenido. Y entonces, por un lado, hemos hecho un acuerdocon libros.com y hemos empezado a coger los libros de libros.com, que son de autoresemergentes. Estamos clonando la voz de esos autores, evidentemente con su permiso y conuna prueba de voz que nos pasan ellos y demás. Y estamos empezando a generar versiones enaudiolibro de esos libros con la voz del autor y optimizando bastante el flujo. Hay que meterlecurro. Esto no solo es lo subo a la IA, lo genera y ya está, sino que hay que darle unpar de vueltas en postproducción, quitar cosas porque de vez en cuando Perla hace cosas rarasy tal. Pero al final estamos llegando a un workflow bastante eficiente en todo eso. Esun caso de uso interesante. Muy obvio, muy fácil, a día de hoy muy accesible para quienlo quiera hacer. Y la otra cosa es que también hay que hacerlo. Hay que currarlo.Que en la teoría todo funciona.Eso es. De hecho, cuando hemos hecho las primeras pruebas hemos tardado más de lo que esperábamos,se ha dicho. Pero te encuentras historias que no tenías proyectadas. Y lanzamos también,esto está en beta, pero funcionando las transcripciones por IA de los episodios delos podcasts. Al final, cuando tú tienes un podcast o un audio en Mambler y subes el audio,ahora vas a tener unos créditos y puedes hacer que te genere la transcripción en la IA. En unmomento donde, además, tanto hace poco Apple Podcasts y otros reproductores de podcasts hanempezado a aceptar las transcripciones. Entonces, cuando estás consumiendo el podcast endeterminados dispositivos, tienes la opción de ver el testito si lo escuchas mal o lo que sea.Entonces, bueno, nos apareció una oportunidad interesante de explotar y al final lo mismo,a nivel tecnológico resuelto, hay que hacerlo. Al final tienes que conectarte con el API deWhisper y hacer una serie de cositas. Pero, bueno, nos está tirando bastante bien.Así que, somos una empresa de IA. IA Driven.Qué guay. A mí me parece... Yo le veo a las dos funcionalidades,a los dos proyectos, le veo un potencial tremendo. Yo creo que esto... Lo de los libros lo quierousar ya. Eso me parece una cosa... Porque con el tema este de los audiolibros, la cosa fueevolucionando. Hacia...
Leer más

Últimas publicaciones del blog

¿Qué es una red de podcasts y qué ventajas ofrece?

Unirte a una red de podcasts puede beneficiar tus contenidos de diferentes man...Leer más

WAV vs MP3: ¿Cuál es la diferencia y cuál es mejor para tu podcast?

Conocer la diferencia entre los formatos WAV y MP3 es crucial debido al impact...Leer más

Beneficios de crear un podcast si tienes una ONG

¿Tienes una ONG? Estas son tres maneras en las que un podcast puede fortalecer...Leer más

Combinando venta de servicios y productos digitales para llegar a las 6 cifras anuales – Alex Llull

Alex Llull empezó estudiando comunicación audiovisual porque le gustaba comuni...Leer más

Alternativas a Patreon para monetizar tu contenido

Vamos a decirlo claro: 2024 está siendo un gran año para los creadores y cread...Leer más

Consejos para hacer una buena newsletter que la gente quiera leer

Si quieres crear una buena newsletter que la gente quiera leer, tendrás que se...Leer más