Avatar

#24-B: OpenAI vs Google: Nuevos lanzamientos y rumorología

La Tertul-IA: Inteligencia Artificial y más

Presentado por

La TertulIA

Cara B del episodio 24 donde revisamos las novedades de OpenAI, Google y los ponemos a luchar entre ellos.

Suscríbete a nuestra news, donde encontrarás también los enlaces de los que hablamos en el episodio, en https://tertulia.mumbler.io/

Transcripción

En la cara B, hoy, vamos a hablar de los anuncios que han ocurridoesta semana por parte de OpenAI, por un lado,y por parte de Google, en el Google IO, por otro.Que, como he dicho al principio, pues son confrontables.Porque, bueno, al final son los players que están desde hacetiempo metidos en un toma y daca.Cada uno con su estilo y cada uno pues al nivel que puedepermitirse y arrastrando también en la mochila las cosas que hanpasado hasta ahora.Pero que es muy interesante, oye,escuchar cuáles son las novedades, sobre todo.También hay que decir que está muy bien esto de ahora hacer lapelea, ¿no?Porque es divertido y eso siempre lo hace y hay gente quese hace fan de unos o de otros y tal.Pero sobre todo, oye, para mí lo interesante es, oye,yo que me llevo de todo esto, ¿no?¿Cuál es el nuevo modelito que puedo usar o la nuevaherramienta, qué se viene?Pues de todo esto es de lo que han hablado, ¿vale?Esta semana en Sendas Keynotes, ¿vale?Y si queréis empezamos comentando un poco por encimalo que se habló en la Keynote de OpenAI con los protagonistas.Y antes de profundizar, ya que has hablado eso de gente quetoma partido o lo que sea, yo solo quiero decir que la deGoogle ha ido después de la OpenAI por algo será.O sea, es como la tónica, siempre van después.Siempre van después.Dicen las malas lenguas que la programación de la de OpenAI sehizo intencionalmente un día antes del Google IO.Estas cosas a lo mejor pasan.Es un buen juego, o sea, quieras que no, a ver,una cosa que yo creo que hace OpenAI muy bien y seguramenteesas cosas amalman porque la parte mediática la lleva bien,es que esto influye.Porque aunque vayas por detrás o lo que sea,si tú publicas antes, o sea, el mercado te recibe de otraforma.Sí, y ya pues entendiendo que en estas Keynotes lo que se haenseñado principalmente, o sea, lo más impresionante que se haenseñado no está disponible, han sido demos.Entonces, como ya hay ese, de hecho,en estas demos después de, sobre todo la de Google,después de lo que venimos, pues siempre hay un subtítulo de estono es footage real, tal, para que nadie se piense que lasvelocidades de respuesta y todo eso, bueno,han tenido problemas con las demos en el pasado,las primeras demos de Gemini.Acordémonos que fueron súper impresionantes y luego se vioque eso estaba todo fakeado, sobre todo en relación a lo quetardaba en responder.Y es que cambia mucho la foto.Si te responde inmediatamente y si puedes mantener unaconversación, que si tienes que esperar un minuto, ¿no?Cambia mucho la cosa, independientemente deperformance en otros ámbitos.Pero claro, Google ya tiene que avisar de que cuando hace unademo, y Google estaba muy preocupado,se notaba por enseñar cosas que sí fueran reales, ¿no?Estuvo, por ejemplo, estuvo Mark Rebillet en la intro haciendouna sesión con inteligencia artificial,que eso sí que se nota que es algo que está pasando en esemomento, ¿no?No puede ser fakeado porque está el hombre allí.Entonces, pero claro, cuando enseñaban una demo,tenían que poner el sustitulo de esto no, de esto no, tal.Las dos cosas más impresionantes para mí que se enseñaron,que fue la interacción en tiempo real con GPT-4 o el agente yaconversacional que podía analizar el entorno y todo eso,enseñaba las fotos y tal, ¿no?Estas van hacia la multimodalidad de formanatural, ¿no?Y de forma interactiva.Y el Project Astra, que es el gran agente de Google que haceun poco lo mismo, las dos cosas eran demos que no estándisponibles.Entonces, ahí yo sí que veo que el que hable antes, pues,se lleva un poco el gato al agua.Porque entendiendo que nadie se va a creer del todo lo que estáviendo, pues ya entiendes que OpenAI va por delante,porque te lo enseñó un día antes.Volvemos a lo de antes de la gestión de expectativas.En este caso concreto, como ahora estamos en ese punto en elque cada presentación tiene que darte mucho más que laanterior, si llega OpenAI y te cuenta algo que está bien,que es la hostia, o como pasó realmente el otro día,o lo de Google es mucho más la hostia,o aunque sea igual o un poquito mejor,nos va a parecer que se queda corto, ¿no?Estamos jugando ahí a, no sé, un poco al,a ver quién es el más listillo a la hora de hacer estas cosas.Y la demo de OpenAI, o sea, lo típico,yo creo que esto la hicieron de puta madre.Sí, sí.Porque lo ves y, a ver, yo me imagino que eso es real.O sea, que esos son los tiempos de respuesta, porque si no,sí que nos han engañado todos brutal.Y es parte, yo creo que parte de la movida o parte del hype,para mí es ese, que estamos hablando de algo.Hace no mucho hablábamos de Siri, Alexa y tal, ¿a dónde van?Y dices, ostras, pues, a dónde van, al cubo de la basura.Porque esta gente OpenAI, pues, ha sacado algo que si cumple lamitad de lo que hemos visto, es varios órdenes de magnitud másinteresante, porque al final es como un Siri o una Alexa,pero multimodal y listo, de verdad, no el hijo tonto.Pues, parece que contemos un poco por encima cuáles son lascaracterísticas de OpenAI, de lo que presentaba en OpenAI,porque si no, igual estamos dando por sentado que toda laaudiencia lo conoce y no es así.Tú mismo, si quieres, Luz, si tienes notas o lo contamos aquíentre todos, lo que tú veas.Sí, lo vamos contando.A ver, el protagonista principal fue GPT-4O,esta O es de Omni, que es el nuevo modelo de GPT-4,una versión de GPT-4, no estamos hablando de GPT-5 todavía,que tiene varias características, digamos,que lo hacen distinto a lo que había antes, al GPT-4 Turbo,que era el último modelo que teníamos donde se hizo énfasisen la velocidad de respuesta, GPT-4 Turbo, de ahí el nombre.Y GPT-4 Omni, pues, ya lo que se basa es más en lamultimodalidad.También en el tema de la velocidad,por este rollo conversacional y tal, ¿no?Entonces, lo que han hecho ha sido,es un GPT-4 que está vuelto a entrenar, ¿no?Está reconstruido de nuevo, han puesto los datos al día y tal.Y ya se hace de una, según dicen,pues es multimodal de una forma más natural, ¿no?Estos, aquí no han sido los primeros en decir esto,porque este es un mensaje que decía mucho Google conGemini, ¿no?Pero, bueno, esto lo han subrayado mucho, ¿no?Y, bueno, está muy orientado al tema speech to speech, ¿no?Al tema muy conversacional, pero, bueno,que también puede aceptar otros inputs de información, ¿no?Como, por ejemplo, imágenes que estás grabando en ese momentocon la cámara o lo que sea y comentar sobre ello.Y luego, pues tenía esta parte, ¿no?Que estuvo muy centrada, cierta parte de la demo en eso deinteractividad, ¿no?Una velocidad de respuesta suficiente como para que sepudiera tener una experiencia interactiva, ¿no?Casi de conversación.Y aquí se ha invocado mucho como similar a la película Her,una película que os recomendamos sobre inteligencia artificialque está muy chula con Joaquin Phoenix, ¿vale?Entonces, esta experiencia recuerda mucho a aquello, ¿no?Que yo llevo mi móvil y voy hablando con ese agente,que en el caso de Her, pues era como su novia, ¿no?Pero un asistente personal, porque en la película Her,pues le empieza diciendo, oye, te ordeno los correos, tal.Ese tipo de cosas.Pero que, oye, esta persona solitaria de la película,pues podía mantener conversaciones y al final,como no hablaba con nadie, pues estaba todo el rato hablandocon la máquina, ¿no?Hasta que al final, pues pasa lo que pasa.Pues esto fue un poco el centro, ¿no?Para mí había cosas, como esto es una demo y yo me lo creohasta cierto punto, ¿no?Como decía aquel, lo veré cuando me lo crea.Pues a mí me llamaron más la atención otras cosas.Pero porque yo soy así, yo tengo que hacerme el especial, ¿no?El especialito.Y a mí me gustó especialmente, de los updates de los quehablaron, que hay más features que han liberado para losusuarios free de ChatGPT, ¿vale?Y eso sí me llamó más la atención, ¿no?Como el tema del acceso al análisis de imágenes ydocumentos, el data analysis también, los GPTs y tal.Todo esto es ahora, no tienes acceso a lo que tienes conGPT+, que sí que tienes acceso a GPT4 Omni y tal,pero sí que tienes estas features que las van liberando.Y eso me parece una buena dirección, ¿vale?Para democratizar todo esto, porque no todo el mundo tieneacceso o tiene la capacidad o no quiere pagar el ChatGPT+.Y a mí eso me gustó bastante, ¿vale?Esto es sobre.No sé si queréis reseñar algo que me haya dejado yo en eltintero que sea muy interesante, ¿vale?Pero a mí eran las dos grandes cosas.Es lo que tú dices, pero tú has dicho, yo es que sí que me,bueno, yo me he dejado llevar por el hype.Creo que la demo mola mucho.Si alguien no la ha visto, hay partes muy chulas de la demodonde ponen a hablar a dos asistentes de estos de OpenAI.A uno le hacen ver el mundo y que le cuenta al otro lo que ve.El otro no puede ver, pero sí que puede escuchar.Y creo que es un buen ejemplo de posibles casos de uso,posibles cosas que puedan pasar y que encima tienen una ciertarelación con el mundo que hemos hablado, los agentes y demás.Me enseña muy bien la multimodalidad.Y es sorprendente, ¿no?También enseñaban que si estamos ahí, lo mismo, ¿no?Es a ver cuánto de esto es cierto.Pero si la mitad de lo que vimos pasó ahí,el hecho de estar en una conversación,como estaban ellos, con una persona que habla otro idioma ydecirle a este asistente, oye, estamos hablando con una personaitaliana, ayúdanos en la conversación,y que tú estés manteniendo la conversación y este bicho estétraduciendo en tiempo real para una y para otro,incluso dándote contexto, ostias, qué guay.Y esto se conecta mucho con, luego ha habido muchas noticiaspor ahí, noticia fake de, oye, ¿y ChatGPT,si en lugar de ser una aplicación fuera un dispositivo queconecta con los Rabbits y todo este rollo?Es que si estamos ahí, muy probablemente sí que OpenAItenga sentido, que acabe haciendo su dispositivo,que esté viendo, que hemos hablado alguna vez también,de que a la IA le faltan sensores,a la IA le falta ver el mundo para aprender más rápido.No sé, o sea, yo esta, creo, sí que he dicho, ostras,se viene un posible paso muy, muy gordo en aplicaciones,casos de uso, o incluso que OpenAI diga,voy a trascender a los dispositivos porque,sinceramente, ¿para qué te sirve un móvil si tienes algo así?O sea, el móvil se queda como, casi se puede quedar en elpasado, porque es que esto te estará respondiendo gran partede las necesidades que te responde un móvil con unainterfaz muy distinta.Y más usable por gente mayor, mucho más accesible.Pero, claro, de hecho justo ese día contábamos que saliendo decasa se encontró un señor de 90 años, aquí un vecino,que le decía, que le pidió ayuda para pedir un taxi.Porque decía, es que no me apaño con el móvil.Claro, es que encaja perfectamente.Entonces, claro, pues es que esto viene muy bien.Sí.Totalmente.Yo, fíjate.No, habla tú, Franky, no paro de hablar.No te preocupes, dale, dale.Era una observación sobre esto que has dicho de los wearablesy contra el móvil.Yo, curiosamente, no sé por qué razón, de estas dos keynotes,salí con la percepción o con la idea de que ha ganado elsmartphone a los dispositivos tipo Rabbit y tal.O sea, yo salí con esa impresión, ¿no?Porque están hablándote de que están sacando apps,que el móvil tiene las capacidades de interfaz quenecesita, lo único que necesita es un software de estascaracterísticas.Y tanto Google como OpenAI te estaban vendiendo que tú vas ausar tu móvil para hacer esto.Porque la plataforma que existe ahora es esa.Pero para mí está claro que viene un cambio.O sea, venga, voy a capitalizar la plataforma actual,que tiene lógica.Es decir, ya tengo adopción masiva,me paso de web a la plataforma usable ahora mismo del iPhone,del teléfono, porque crear una nueva plataforma y ponerla ydesplegarla son 5 o 10 años mínimo.Tiene sentido ese paso.Pero ves, me da la sensación de que a ti te vas claramente ydices, venga, esto va a que dentro de 5 años,no va a pasar este año.Pero dentro de 5 años habremos pasado ya por una adopciónmasiva de todo el mundo en sus móviles con esto,te habrás acostumbrado.Pero si esto tiene todas estas capacidades,lo que va a pasar es que la mitad de las apps del móvil nolas vas a usar.Porque tú vas a estar con tu chisme y le vas a decir, oye,open AI, hazme no sé qué, hazme lo otro.Y llegar a un punto que digas, ¿para qué cojones quiero uncacharro que está pensado para hacer más cosas para que yointeractúe, para que toque la pantalla, para que no sé qué?Cuando al final, lo que necesito son otros sensores.Yo lo que iba a comentar es, empaticé mucho con lapresentación de Open AI porque hicieron, hablaron o presentaroncosas con las que yo interactúo bastante de forma general.Por ejemplo, esto de la conversación,que fuera una respuesta también en tiempo real.Y, por otro lado, que pudieras interrumpir a HGPT cuandoestaba hablando.Yo que ya os he comentado otras veces,lo utilizo mucho en el coche para ir preparando contenidos ypreparando reuniones y todo eso.El hecho de hacer una pregunta y hasta que no termina no poderhacerle la siguiente, incluso aunque a veces sabes que no vanlas cosas por ahí y querrías pararle, pues,parece una tontería, pero a mí, por ejemplo,ya me va a dar la vida cuando lo pueda utilizar en ese casoconcreto.Ahí sí que ganaba Alexa antes, ya no.El tema de la videoentrada.Cuando hacían esto de, bueno, pues,ver si cuando estaba resolviendo la ecuación lineal,lo estaba haciendo bien.También hemos comentado alguna vez que el año pasado estoyayudando mucho a mi hija para preparar matemáticas,para la EBAU, no sé qué.Bueno, pues, a ella le hubiera podido ayudar, por ejemplo,cuando yo no podía estar, el tener un vídeo, una camarita,enfocando al cuaderno, mientras iba haciendo el ejercicio ypoder preguntar, ¿voy bien, voy mal?Dame una ayuda.Sería como mucho más interactivo, ¿no?Y otra cosa que también detecté, incluso no lo vi en la keynote,no sé si lo llegaron a decir, pero la primera vez que utilicéel chat GPT 4.0, me pareció como que el lenguaje era menoschat GPTero.Era como más natural, más real, más de persona.Y luego leí que era una de las características que ellosestaban vendiendo.Hay cositas que se notan.Y si le das más vueltas, joder, pues,está acercando a más a ser una herramienta muy útil, pues,para personas invidentes, por ejemplo, ¿vale?O ¿por qué no lo vas a tener en el coche apuntándote a tu cara?Porque como era capaz de detectar tus expresiones,para que cada poquito tiempo veas si te estás durmiendo o si teestá pasando alguna cosa rara, o tenerlo como sistema devideovigilancia para los bebés, que está en el cuarto y ver siestá vomitando o está, o sea, al final,si es capaz de llegar a todo eso que nos están prometiendo,es que podemos darle usos mucho más amplios de lo que hemosvenido hasta ahora.Y con lo que estabas diciendo, que lo decías tú, Lu,si esto lo podemos hacer con un dispositivo móvil directamente,sin necesitar otro tipo de aparato,pues, es que tienes todo en casa.LUIS DE LA CÁMARA 2 Sí, a ver, yo creo que ahí la diferencia,si yo estoy con Corti, que cambiará porque ahora hablaremosde Google, que Google se cargó ayer a no sé cuántas aplicaciones,que es lo que hace normalmente, ¿no?Claro, estas cosas van cambiando, ¿no?Pero yo creo que el SIP, ¿no?El SIP es muy importante cuando tú quieres entregar algo, ¿no?Y los móviles ya los tenemos todos en el bolsillo.Entonces, lo que ocurrirá es que, bueno,los móviles irán cambiando, claro, evidentemente.LUIS DE LA CÁMARA 3 El canal de distribución ahora es ese.O sea, el canal actual que existe es el del móvil y tiene todo elsentido del mundo.Pero también siempre pasa que cuando llega al pico máximo deuna plataforma es cuando empieza a despuntar la siguiente.O sea, que viviremos esa transición.Y yo creo que también los wearables de IA que ha habidohasta ahora, el mayor problema es que han sido, a ver,empresas como, por ejemplo, Rabbit.Tampoco tiene tanta financiación,tampoco lleva tanto tiempo.Es muy distinto el día que realmente uno ven ahí y lancealgo, que tienen ahí a Johnny Ive también, ¿no?Que está haciendo algo con Sam Alman y siguen buscandofinanciación o algo para lo que ellos llamaban el móvil de laIA, que puede ser algo de esto.Yo creo que eso, los primeros 5 años va a estar en el móvil,pero vamos a vivir el nacimiento de algo.Hablando de que Google se carga unas cuantas estratas,me hace gracia porque hemos estado discutiendo en un grupoeste lo de Lucía, hace 2 días antes yo creo que saliera lo dePenaí.Y una persona, colega que está en ese grupo,luego me escribió en privado cuando salió lo de Penaí y dijo,mal día para ser Lucía.Y qué coste desde aquí.Los de Lucía mola mucho lo que hacen y lo van a petar,estoy seguro.Pero es verdad que, claro, cuando tú tienes un chat comoes Lucía, una IA en tu WhatsApp, que es como su ventajacompetitiva, que está en algo muy cercano a ti como es elcanal de WhatsApp y te resuelve muchas cosas,pero uno Penaí te lanza algo como esto,es que esto sí que va a ser un companion,una app companion tan usada o más que WhatsApp,se la vas a llevar ahí y te va a resolver mogollón de,te va a resolver todo de día a día.Bueno, entonces.Nadie se puede dormir, yo creo que los chavales de Lucía queademás han recibido una financiación jugosarecientemente, pues tendrán un plan en la cabeza y seguramentepues va a llamar a lo siguiente, ¿no?Eso es.Pero que estamos en ese, claro, esto es de Far West,o sea, que aquí cada semana las startups ya se tienen quereinventar porque, claro, la tecnología avanza mogollón.La tecnología avanza y están los grandes players que tienen esacapacidad, ¿no?Es que la, por comparar Keynotes, ¿no?La Keynote de OpenAI, ¿cuánto duro?Media hora, por ahí.Sí.Al grano, tal, no sé cuánto.La de Google son dos horas non-stop sacando cosas.O sea, es como un enfoque muy distinto, ¿no?Pero, claro, lo que son capaces de abarcar y todos los frentesque tienen abiertos y tal, además que están como con, ahora,con la alerta ahí puesta, ¿no?Estamos en DevCon 4 en Google y ahora vamos a hablar de por qué,¿no?Y tenemos que hacer algo ya.Entonces, Google empieza a disparar para todos lados y selleva por delante lo que se encuentre, evidentemente, ¿no?Y tiene que ser OpenAI para plantarles cara y estamosesperando a Apple ahora en junio, ¿vale?Con el tema de cómo cambian los móviles, bueno, pues, claro,están Google y Apple ahí.Tienes que ser capaz de competir con ellos porque ellos van a serlos primeros que adaptarán sus móviles,que ya lo están haciendo, para el nuevo escenario, ¿no?Y tienes la distribución, muy difícil, pero, claro,todos los imperios terminan cayendo.¿Qué pasó en la conferencia de Google?Bueno, pues, es que pasaron tantas cosas.Tantas cosas que es que es muy difícil resumirlo, ¿vale?Pero yo voy a intentarlo.Voy a intentar decir los highlights.Y para mí los highlights son, uno muy importante del que sehabla muy poco, se habla muy poco en redes sociales, ¿eh?Luego sí que hay gente hablando del tema.Es el tema de los 2 millones de tokens de contexto en Gemini1.5 Pro.Y esto ya está disponible.2 millones de tokens de contexto.Nadie se les acerca ni en un orden de magnitud por debajoen la industria.Nadie.Eso era, si no recuerdo mal, como 1,000 páginas de un libro ouna cosa así, ¿no?Era de ese orden, me parece.No, más.Es más.¿Más?Estos son como, ¿cuánto tiene un libro?No lo sé.Lo he mirado, esto sí.Míralos, sí, por favor.No recuerdo las, pero vamos, eran horas de vídeo, todo tu email.Entonces, 2 millones de tokens, ¿no?Por aquí dicen 500 páginas son como 120,000 tokens.Pues me he quedado corto.Me he quedado muy corto.2 millones de tokens es mucho.Tú ponte que son 1,700,000 palabras.2 millones de tokens, ¿no?Es una barbaridad de información, ¿vale?Aparte de que, de natural, pues también Gemini es multimodal ytodo lo que tú quieras.Una de las cosas que hace, por ejemplo,que tiene un montón de aplicaciones, es que un vídeo,tú le pasas un vídeo, lo divide en fotogramas y analiza cadafotograma por separado.Porque tiene, claro, con ese contexto, todo eso le cabe.Y puede permitirse hacer eso, ¿no?Entonces, claro, el nivel de detalle, claro,es que el nivel de detalle al que se llega con eso, ¿no?A la hora de preguntarle cosas sobre lo que pasa en el vídeo,relacionar cosas que están en distintos puntos del vídeo,cosas por el estilo, es impresionante.O sea, las aplicaciones a las que te abre,y nadie está hablando de esto, que me parece acojonante.Las aplicaciones que te abre el tener esa capacidad decontexto, primero, son nuevas y no nos las podíamos permitirhasta ahora.Y luego, no las puede hacer nadie más.Y ellos siempre hablan de que su, ya sabemos que tienen,que en laboratorio están con 10 millones y que su horizonte escontexto infinito, ¿vale?O sea, que eso pueda tener acceso a la internet completa.Bueno, esto de los 2 millones de contexto tiene muchaincidencia.Otro de los highlights de la Keynote,que es el Google for Workspaces, ¿no?Donde ya Gemini está integrado, pero que ya puede hacer muchasmás cosas.Porque ya, por ejemplo, pues, tu correo electrónico,o sea, toda tu bandeja de correo electrónico de toda tu vida,ya no es un problema para Google Workspace.Entonces, tú le puedes hacer preguntas y que te saquebriefings, o qué decisión se tomó en no sé dónde, tal.Eso de buscar en el correo ahí y profundizar en los hilos haacabado, ¿vale?Y muchas otras aplicaciones, ¿no?Sacaron varias aplicaciones para Workspace, ¿vale?Que están bastante bien.Y sobre todo, otro de los highlights,me voy a dejar lo mejor para el final, ¿eh?Otro de los highlights es que fueron muy all in con losagentes.Agentes para todo.Dentro de Workspace, dentro de, hablan del AI teammate, ¿no?Van a sacar un panel lateral, ¿no?Y tú tienes allí siempre a tu colegui que le puedes preguntarcualquier cosa de todo.Y te ayuda con tareas, está integrado, ¿no?Oye, pues, cuando terminamos esta reunión,mándale un email con el briefing a Pablo.Y ya lo hace él solo y tal, ¿no?Ese tipo de historias.Pues, tu AI teammate es una Featur que tenemos en GoogleWorkspace.Pero tienen un agente que es el que compite con estaexperiencia de OpenAI, de conversacional e interactiva ymultimodal que hicieron, que es el Project Astra,que es un agente multimodal y multipropósito, ¿no?Los agentes ahora, pues, tú las APIs se las tienes queespecificar.Le dices, oye, pues, tú puedes conectar aquí y acá,integrar las cosas para ti.Pues, Project Astra, no tienes que decir nada, ¿no?Él sabe internet.Y entonces, pues, es capaz de interpretar el vídeo que leestán enseñando, tiene memoria.Está bastante bien el vídeo de demostración de la interaccióncon el agente y tal.Porque, además, sacaron una Google Glasses que yo estabaesperando que esto volviera, que se las ponía y también lehacía la experiencia, ¿no?Pero todo esto demo, con el subtítulo de esto es una demo,¿vale?Que hay que tener mucho cuidado.Y Google ya, después de lo que le ha pasado,tiene mucho cuidado.Pero sobre todo, y yo, hay más cosas de la keynote de Google,pero es que nos tiraremos aquí una hora y media.Pero yo creo que donde está la chicha,hablaron de infra, hablaron de Android,hablaron de nuevos chips, bueno, muchas cosas.Yo creo que donde está la chicha es en la búsqueda.Porque donde Google está empezando a cambiar,ya empujado por lo que está haciendo, no solo OpenAI,¿no?Gente como Perplexity, gente que se está centrando en unabúsqueda mejorada.Y la búsqueda para Google, me han dicho que es importante,pues Google ya se ha lanzado a tope a cambiar la experienciade búsqueda.Esto irá llegando poco a poco a lo largo de este año, ¿vale?Y hay bastantes cambios en Google Search, ¿vale?Básicamente cambia la experiencia con respecto a la búsqueda ytodo es mejorado con inteligencia artificial.Por supuesto, poder hacer búsquedas más inteligentes,más contextuales, bueno, como hace,no sé si ya habéis usado Perplexity, que lo hacen muybien, ¿no?Multimodales, todo esto, ¿no?Hablaron de AI Overviews, ¿no?Que es una manera de mostrar resultados de manera másinteligente.Poder preguntar sobre fotos, sobre vídeos,todo este tipo de cosas.Y sobre todo también, y aquí volvemos al tema de losagentes, lo que llaman dentro de la búsqueda el Multi-StepReasoning, ¿no?Que hay un agente integrado, ¿no?Habrá un agente integrado que con la capacidad de razonar através de múltiples pasos para encontrar resultados mejores,más ajustados y más detallados, ¿vale?Entonces, yo creo que el gran highlight de lo de Google no estanto la competencia directa con Open AI en la parte de la genteinteractivo, en el móvil, que eso era como lo mismo.Ya veremos cuando lo entreguen cuál funciona mejor.Sino que está aquí, que ellos, esto es el core de su negocio,¿no?Y aquí también hay que ver dónde están los ads,que eso hablaba Sundar Pichai, no en el IO,pero en una entrevista de unos días antes, ¿no?Que le preguntan directamente sobre ads y él decía,no, la gente quiere tener opciones y ahí es donde entranlos ads y tal, ¿no?Bueno, pues, tendrán que encontrar el encaje en estetipo de búsqueda porque eso es un negocio.De hecho, el otro día veíamos una noticia de que Google,el market share de Google en búsqueda,no está cayendo a un picado, pero iba cayendo y en el últimoaño se notaba bastante y que lo perdía a Bing, ¿no?Que es un poco quizás la experiencia de búsqueda que haintegrado un poquito mejor la IO.O sea que es un movimiento defensivo seguramente en todasreglas.Si os acordáis, hace como 2 meses estábamos diciendo quepasaba con Google, que iba a perder por incomparecenciacasi, ¿no?Porque estaba ahí, no sacaba casi nada,lo que sacaba era un poco raro.Parecía que estaban completamente perdidos,pero no estaba muerto, estaba de parranda, básicamente.Estaban ahí preparando todo y, desde luego,si es verdad que le están dando un sesgo distinto al que le estádando OpenAI, también habrá que ver de cara a un futuro si sonherramientas que pueden ser complementarias,si al final se va a imponer una porque te sea más útil engeneral.Esos son temas también, porque a nivel de producto muchas vecesocurre, ¿no?Hay veces que no utilizas los 2, aunque alguno no te dé todas lasfuncionalidades, pero si te da más.Y en otros casos los necesitas complementar.O sea, si Google al final termina absorbiendo lo que haceOpenAI.Pero fijaos, perdón.Un apunte sobre lo que decías del enfoque,que es verdad que en cierta parte no hablan de tantas cosas,pero hay otras cosas que sí son claras respuestas a lo que haceOpenAI, ¿no?Porque, por ejemplo, las suites de modelos, el Gemini Flash esuna respuesta a los modelos rápidos como de tipo turbo ytal, ¿no?O sea, para Google es que le pega a todo, ¿no?Porque también le pega al OpenSource, a los SLM,está de todos lados.Pero, bueno, continúa, que era un apunte simplemente sobre eso,que hay cosas que son claramente reacción a OpenAI y otras cosasque son, pues, 2 horas de aquí no paramos, uno detrás de otro.Sí, bueno, en ese sentido, antes de seguir con lo que voy adecir, ¿realmente es necesario que nos cuenten todo?Por lo que comentábamos antes de OpenAI,incluso también recuerdo un día que hicimos una reflexión en laentrevista que le hizo Bill Gates a Sam Altman y decíamosque, joder, que era un tío capaz de responderte en un minuto acosas que los demás necesitábamos 10 para tratar dedarle sentido, ¿no?Es un tío que va muy al grano y, además,siempre responde muy clarito.Pues, la keynote de OpenAI era justo así, ¿no?Iba de ese rollo.Te daban las cosas que te debían contar y luego tú ya rellenaslos espacios.Antes lo hemos comentado, se nos ocurrían un montón de casos deuso simplemente a partir de lo que habíamos visto que noshabían contado.Sin embargo, en el caso de Google parece que te lo tienen quesacar las marionetas, ¿no?Contarte absolutamente todo porque si no,se les queda algo en el tintero y es como que no ha sidosuficiente.Bueno, hay un matiz con eso, ¿vale?Estoy de acuerdo, ¿eh?A mí, de hecho, yo me vi la enterada de Google y terminé unpoco hasta los huevos, te voy a decirlo.Es decir, no se acababa nunca.Hubo cosas que estuvieron súper bien, ¿eh?Pero es verdad también que la de Google es una conferencia paradesarrolladores y la de OpenAI era muy de presentar elproducto.Entonces, son cosas diferentes.Pero aún así, a mí me terminó cansando.Bueno, sin información.Encima, yo estaba ahí tomando apuntes y me quería ir ya en unmomento dado.Digo, mira, por favor.A lo mejor allí que por la mañana.Pero es inevitable compararlas al final porque están un día conun día de diferencia y a lo mejor esto de lacontraprogramación previa que estábamos comentando antes eraparte del juego de OpenAI, ¿no?También dicen, la hago el día antes, la hago más corta y alfinal les estoy dejando en evidencia por contenido y porduración.O sea, puede ser ataque también de alguna forma.Sí, es posible.Es posible.Lo que pasa es que OpenAI no puede abarcar tanto.Pero está mejor porque se centran en lo suyo y en suespecialidad.Y si ahí destacan, que es lo que está por ver, ¿eh?Porque, bueno, también OpenAI tampoco ha presentado una cosaque sea un breakthrough, ¿no?O sea, es decir, es verdad que la experiencia cambia cuandosaquen esto.Si es así, va a ser la hostia.Pero luego, pues, es un GPT-4 más, ¿no?O sea, a nivel de las tareas normales que ya hacíamos,tiene una performance similar al GPT-4 anterior.Entonces, bueno.Sí, yo lo veo más y, salvando las distancias, ¿no?Yo creo que OpenAI, y alguien lo decía el otro día por ahí y leveo la razón, que se parece mucho al Apple del iPhone.Es decir, que a lo mejor tecnológicamente,o sea, podemos ponernos a discutir si es más breakthroughtecnológicamente o mejor y tal.Lo que sí que están siendo capaces de entender es el casode uso, el producto, ¿no?Creo que lo están siendo capaces de empaquetar mucho mejor.Y yo mi sensación de la presentación de OpenAI es,hostia, esto como producto de consumer, esto es la polla.O sea, que a lo mejor eso, ¿no?Dices, esto lo puede hacer cualquier otro, yo qué sé,lo puede hacer Google, lo puede hacer Meta,lo puede hacer no sé qué fácilmente.OK, pues que lo hagan, porque realmente es mucho más útil,porque te están acercando los casos de uso, ¿sabes?Están haciendo que la experiencia sea tan brillante si van ahí,que en el fondo da igual que el modelo sea mejor o peor.Aquí ya estamos hablando, y también hay un avance, ¿no?En tiempos de latencia y demás, lo que hablamos, ¿no?Lo que Siri y Alexa nos han atrevido a hacer,que es metería de verdad en esos asistentes de voz por laslatencias y esos problemas que comentamos el otro día,esto sí que parece que lo resuelve.Bueno, no sé si habéis usado la app con GPT-4 o que solo es,no es Omni todavía, eso vendrá después,pero sí puedes hablar con él, ¿vale?Es más rápido que antes, no es como en la presentación y ademáshan tenido problemas de sobrecarga estos días,así que supongo que estarán hablando con NVIDIA sobre estetema y pidiendo números, ¿vale?Pero aquí hay problemas en este modelo computacional que usaOpenAI que imponen un límite en cuanto a las latencias que nose puede mejorar, llegado a un cierto punto.O sea, primero, requiere de una infraestructura que está claroque a día de hoy estarán actualizando,pero todavía no tienen, ¿no?Y eso, el hecho de que estos días,yo lo estoy usando bastante, ¿eh?Y mola, mola hablar con él y tal,pero es que cada dos por tres está diciendo,tenemos problemas de computación, vuelve a hacer la pregunta,por favor, te lo dice así.Y los tiempos, evidentemente, cuando tú tienes que hacer,o sea, hay latencias que son inevitables por aquello de lainternet, ¿eh?Y claro, no son como en la presentación.Entonces, a ver, está mejor que antes, ¿vale?Le puedes interrumpir, es más interactivo,que yo creo que es la parte potente de todo esto,la experiencia es mucho más interactiva,pero yo estoy todavía por ver el modelo ese completo,y si yo al final, teniendo la, pues,aceptando la espera mínima esa de un segundo y pico, ¿no?Que vas a tener que asumir siempre,si eso realmente me va a llevar a una experiencia como laque estaban teniendo en aquel video, ¿vale?Que yo creo que solo se puede conseguir cuando la ejecuciónocurre en el propio dispositivo.Pero si eso es así, no vas a tener esas performance hoy endía ni de coña.Entonces, bueno, veremos, ¿eh?Pero lo del video está muy bien,y Mira Murati lo dijo al final,gracias NVIDIA por dejarnos las mejores GPUs del mundo parahacer esta demo, que terminar con esa frase es como decir,oye, perdón, que es que yo no tengo la mejor GPU del mundo.O sea, que implícitamente.Pero vendrá, vendrá.Claro, implícitamente estaban diciendo, a ver,esto es una demo, ¿no?Y yo no sé si están arreglados ya los problemas,pero problemas han tenido, ¿eh?Ahora, también hay que decir que la app estaba actualizada esemismo día, yo la pude usar en mi teléfono,y el proyecto extra este de Google,eso yo no lo he podido quedar.Así que, eso sí que es una diferencia clave, ¿no?El hecho de que tú enseñes algo hoy en día,tal y como a lo que nos están acostumbrando, ¿no?Con todo esto de la inteligencia artificial,es a que lo de las demos no vale.Mira, fíjate con Devin, ¿no?Sí, mucha demo.Luego, como no me lo dejas usar, pues, entonces,esto a mí no me convence, ¿no?Es como pasar con los videojuegos, ¿no?Entonces, se llama el gameplay y luego no le vayas a hacer undowngrade cuando lo saques de verdad, ¿no?Pues esas cosas terminan pesando mucho.Y yo creo que OpenAI no es como enseñaron,pero es verdad que Google es que no te lo ha dado todavía.Entonces, bueno, cuando lleguen estos modelos multimodales,veremos.Yo le digo a la gente desde aquí, no nos emocionemos,que no van a ser como en esa presentación.Vamos, estoy seguro.Si fuera así, pues, oye, yo me monto un puesto de flores,¿sabes?Pues, entonces, yo no sé de informática.Pero así no puede ser.No lo digas muy alto.Ojalá, ¿eh?Ojalá.Lo que no estaba, sin embargo, era la desktop app,la aplicación de escritorio del, lo diré, de esta GPU.Hay gente que sí se la ha podido descargar y le ha funcionado.Otros que no.Otros que han encontrado una por ahí.Yo, por ejemplo, la encontré por ahí.Y luego resulta que no te funciona tampoco del todo.Te dicen que esperes.Ha habido alguna cosa rara, pero mucha gente no tiene acceso a laaplicación.Y tenía cosas que molaban.Lo de la compartición de pantalla, por ejemplo,tenía bastante buena pinta también.En algunos casos yo he visto como que parecía que en Europa,o sea, que estaba disponible en Estados Unidos,pero no fuera o algo así.Pero yo conozco a alguna persona de España que sí que la estáusando.Y yo no he sido capaz y he visto otra gente que no era capaztampoco.Bueno, quizá por esa contraprogramación,que su conjetura no está, pero tendría sentido,esto haya sido un lanzamiento prematuro, ¿eh?Y esto se junta, ya voy a sacar el salseo, venga,mierda.Esto se junta con que un par de días después de estapresentación, gente bastante relevante dentro de OpenAI haabandonado la compañía.Empezando por Ilya Suskever, un founder de OpenAI y jefecientífico, digamos, el máximo responsable intelectual deChargePT.Podemos decir, seguramente.Y, bueno, no es secreto que tuvo sus fricciones hace unos mesescon Sam Alman, porque estuvo involucrado en la decisión desacarle de la compañía, que luego volvió.Bueno, acordaros del capítulo aquel que nos tuvo un fin desemana en vilo.Sam Alman sigue, es el CEO.Ilya Suskever desapareció un poco del mapa público duranteun tiempo.Volvieron a alinear filas, bueno, esfuerzos ante un enemigocomún frente al ataque de Elon Musk con la querella deMarras, ¿no?Y ahí Ilya Suskever se habló y sacó los emails aquellos queson gente con la que yo no querría discutir.Y allí estuvieron todos a una.Pero Ilya ha decidido recientemente, aunque dice que debuen rollo y tal, no ha dicho las razones reales, dejar OpenAI.Y esto podría ser un hecho aislado, pero es que le hanseguido unos cuantos.Y no se sabe qué van a hacer.Así que bueno.Aquí podemos hacer conjeturas.Podríamos hablar del remoto, porque esto es una chorrada quedigo yo, porque Sam Alman se quejó del remoto hace poco.Pero puede tener que ver con que están cambiando las cosasahí dentro, ¿no?Esto de que hagan un...No había pasado en OpenAI que hagan un anuncio, que haganuna release y que no funcione bien.Siempre había sido bastante exitoso esto y bastante...¿Están ahí apretando las tuercas a la gente o algo así ytocando los cojones?No sé.¿Qué puede estar pasando ahí dentro?Teorías conspiranoicas que te dicen que es que estánasustados porque la inteligencia artificial que están haciendoes demasiado real y entonces no quieren y se van.Esas cosas te las va a encontrar siempre.Hay un meme de eso, ¿no?De qué es lo que vio Ilya.Se dice mucho.Efectivamente.No lo sé.Si mañana terminan fichándoles Google,pues seguramente tendremos ahí la respuesta a la pregunta oMicrosoft.Porque acordaos también que cuando echaron a Alman lerecibieron con los brazos abiertos y por un momento estuvodentro, ¿no?No sabemos si la razón es por algo de dentro o la razón esmás bien exógena, ¿no?Viene de fuera.No sé cuánto tardaremos en saberlo.Ya.No lo sé.A mí es una cosa que me, vamos, dentro de que, a ver,podemos cuñadear e inventarnos cosas.Por eso estamos aquí.Si no le hago las cosas a esto.Pero que me causa cierta inquietud, ¿no?Es decir, quiero saber más.Este tuit desde hace 19 minutos.Ups, a ver, las gafas.A ver, a ver.Jan Leikeke, Head of Alignment, Super Alignment Lead yEjecutivo de OpenAI.Lo de los títulos también, el Head of Alignment,que es el que dice, chicos, no discutáis.Venga, tenemos que estar alineados.Sí, pues, bueno, este ya lo había dicho, ¿no?Que se fue justo después, pero, bueno,ya vuelve a poner que fue su último día.Y hay un hilo, ¿vale?Hay un hilo contando cositas.Esto hace 19 minutos.Esto es primicia, ¿eh?Yo no lo he leído.¿Vale?Si queréis lo repasamos.Cuéntale la historia, Lu.Cuéntalo para los que nos están escuchando.¿Qué dice?¿Qué dice el hilo?Bueno, Jan Leike, que ya había anunciado que dimitía el otrodía después de Ilya Suskever, ¿vale?En OpenAI.Pues ahora anuncia, ¿no?Que se va, que ayer fue su último día, ¿vale?Como Head of Alignment, Super Alignment Lead andExecutive, ¿vale?Casi nada en OpenAI.No sé qué significa ninguno de los títulos.Yo sé lo de…Lo único que me queda claro es, claro,son los millones que, o sea, porque en esta compañía,esos roles son millones.Sí.Entonces, bueno, pues habla de las cosas que han hecho,de que su equipo fue el primero en hacerlo delReinformed Learning with Human Feedback con esta GPT.Bueno, que han hecho unos logros, ¿no?Que está muy agradecido y que le ha costado mucho tomar estadecisión, ¿no?Y dice una frase.Voy a intentar traducirla en inglés porque no sé si laentiendo ni yo.Dice, necesitamos urgentemente encontrar la forma de cómodirigir y controlar sistemas de inteligencia artificial de unamanera mucho más inteligente a como lo estamos haciendo.Bueno, tiene dos lecturas esa frase, ¿eh?Porque también podría leerse cómo controlar sistemas de IA queson mucho más inteligentes que nosotros.Podría ser.Es verdad.Es verdad.Pues para bajar un poquito más de luz,estoy viendo que el rol de executive alignment dice que escrucial para garantizar que los modelos de inteligenciaartificial desarrollados por la organización funcionen demanera segura y alineada con los valores y objetivos humanos.La responsabilidad son garantizar seguridad y ética,investigación y desarrollo, colaboración interdisciplinaria,evaluación y mitigación de riesgos,educación y capacitación, desarrollar modelos confiables,prevenir resultados no deseados, transparencia y explicabilidad.O sea, es un rol, en este sentido paranoico que estábamoscomentando antes, hasta a lo mejor tiene más relevancia, ¿no?O es más real de lo que estábamos pensando.Sí, sí.No, no, estos son los que, si lo dices al principio, ¿no?Fueron los primeros que empezaron a hacer lo delreinforcement learning with human feedback,con el extract GPT y tal, ¿no?O sea, esta peña pues se dedica a eso.Mira, siguiente tweet del hilo, ¿vale?Esto va intensificándose la cosa.Lo leo.Lo intento leer directamente en español.Ojalá hubiera una herramienta que yo le pasara este hilo y melo sacara en español, ¿verdad?Algún día llegaremos.No se me ocurre ninguna.Dice, yo me uní a OpenAI porque era uno de los mejores sitios enlos que estar y hacer investigación, ¿no?Sin embargo, he estado en desacuerdo con el leadership deOpenAI acerca de cuáles eran las principales prioridades desdehace ya algún tiempo hasta que hemos llegado a un punto deruptura, ¿vale?O sea, que está achacando su dimisión a una diferencia encuanto a la visión.A un desalineamiento, que es curioso.Ha hecho mal su trabajo, entonces.Bueno, dice, aquí el único que sabe del alineamiento soy yo, ¿no?Claro.¿Vale?Y dice, I believe, bueno, joder, es que esto, yo no soytraductor, de verdad, ¿eh?Me cuesta mucho porque me tengo que quedar callado leyéndolo,¿vale?Por favor, cha GPT.Creo, ¿no?Que como más de nuestro ancho de banda debe invertirse en estarlistos para la siguiente generación de modelos, añadirletoda la parte de seguridad, monitorización, preparación,seguridad, robustez adversarial, que es olvidar un poco toda estaparte de cosas, ¿no?Generación de cosas malas y demás, super alineamiento,confidencialidad, impactos en la sociedad y temas relacionados,que esos problemas son bastante difíciles de solucionar ahoramismo y estaba preocupado de que no estamos en una trayectoriaadecuada para llegar ahí.Ya nos están poniendo los recursos, ¿no?Eso es.En este sentido.Justo.Y yo creo que los dos últimos tweets son bastante ya comodirectos, ¿no?Que dice que durante los últimos meses su equipo ha estado comoluchando contra el viento.Algunas veces se han estado sufriendo o, bueno, o les hacostado ser capaces de tener tiempo de computación y cada vezera más difícil conseguir que esta investigación se hiciera.Construir máquinas más inteligentes que los humanos esuna tarea inherentemente peligrosa y OpenAI debería estarllevando esta responsabilidad en sus hombros como paladines dela humanidad.¿Es curioso esto del tiempo de computación?O sea, yo no sé en lo que estará Sam Adman,pero había una noticia también o una entrevista que hicieron hacepocos días donde hablaba del concepto este de UBI,cómo era la traducción.Pero, bueno, básicamente lo que quiere Sam Adman es que todo elmundo tenga derecho, derecho universal,a un tiempo de computación de GPT-7 cuando llegue ese momento yque eso valga más que el dinero,ese tiempo de computación que te dan,que tú lo puedas cambiar por recursos,que lo puedas cambiar por,que lo puedas donar para que ese tiempo de computación seutilice para investigar el cáncer o no sé qué narices.Es como que él está en otras cosas que no sé,efectivamente,si están muy alineadas con lo que quiere toda esta gente.Y es curioso que digan que no tienen tiempo de computacióncuando el otro está diciendo que debería ser un derecho universaly no sé.Pero es que, bueno,cuidado con Sam Adman, con lo que dice Sam Adman.Es que a mí me pareció muy curioso, ¿no?Porque decía no debería haber una renta básica universal,debería haber unos recursos de computación básicos universales.Que eso a mí me recuerda un poco,a lo mejor aquí se me ve un poco el plumero, ¿eh?Pero a mí me recuerda un poco aquello de María Antonieta,que no tienen pan, pues que coman brioche.Que, joder, también ponerlo en contraste con eso otro,no me jodas.El Sam Adman quizá se le está yendo la pelota.Pero eso tiene que ver con un tuit, ¿no?Que hubo de alguien saliendo, o con una coña,que alguien decía como que está saliendo Penahí,que la culpa era de que Sam Adman estaba todo el día de podcast en podcast,y que no hacía caso.Y, en el fondo, puede estar generando problemas eso, ¿no?El tener un líder que comunica a lo mejor más para afuera que para adentro,y que a lo mejor te lo que cuenta afuera es muy visionario, futurista,que te cagas, pero no está siendo capaz de enfrentarloo dedicar recursos al corto-medio plazo, ¿no?Es posible, y es posible también, y esto es otro,que yo lo hilo con esto del zip,el zipping de la última versión que ha funcionado mal,o que está funcionando mal,con que se esté metiendo caña para sacar cosassin cuidar, a costa de descuidar otras, ¿no?Es decir, es que esto, vamos,¿quién no ha estado en un proyecto que pase esto, no?Es decir, no, no, tenemos que sacar Release mañana,pero es que no está la autenticación, me da igual.Y a lo mejor, oye, aquí se está, pues,incluso una empresa como OpenAI tendrá recursos limitadosy tendrá que elegir una dirección clara para conseguir algo, ¿no?Y eso siempre implica, pues, trade-offs, ¿no?Y dejar priorizar y dar menos prioridad a otras cosas,por lo que cuenta John Lake en este hilo,pues una de las cosas a las que nos está dando prioridades a todo esto, ¿no?A todos estos mecanismos de control a los que se dedicaba.Y curiosamente, y ya por sacar más salseo,hace poco...Y parece que ahora mismo, hablando tanto de producto,como que se queda del lado Llama.Sin embargo, Llama tiene un potencial.De hecho, sacaban hace poco otro modelo que tenía,no sé si eran como 400 millones de.Bueno, y salgando a lo largo del año más, sí.Efectivamente.Decían ya que tenía un nivel de GPT-4 y todo ese tipo de cosas.Ya estamos diciendo que tienes un modelo equivalente a GPT-4 quetú puedes utilizar dentro de tu entorno,donde puedes establecer las medidas de seguridad que túquieras, donde puedes construir el producto específico que túquieras.O sea, que te da otro tipo de ventajas.No es evidentemente para el público final,pero sí de cara a las empresas un modelo también bastanteinteresante, ¿no?Pero fíjate esto que has dicho, no es para público final.Volvemos a ese símil de OpenAI con el Apple, de Steve Jobs.O sea, OpenAI es esa compañía, cada vez más es la compañía deconsumer, es la que, es como Mac, ¿no?O sea, Mac que lo petó, el iPhone lo petó,pero luego en entornos corporativos,cuando estaba petando, seguía viendo PC,seguía viendo mainframe.Claro, Blackberry y todo el rollo, luego tardó mucho.Yo creo que lo que está pasando es eso,que OpenAI lo que está es entendiendo muy bien cómo llevarla IA a un mercado masivo.O sea, todavía no está ahí, pero es verdad que es la que estágenerando más noticias, un producto que lo vamos viendo,cómo se va más puliendo para un uso general,que ser tu companion, es eso, es consumer.Y dentro que tiene esa parte más enterprise, ¿no?De Teams, de tal, no sé qué, tampoco tiene un offering deinfra, de cosas complejas, que si lo tiene un IBM,que si lo tiene un Microsoft, que si lo tiene lo que estádiciendo, no.Pues un día más está pensado para ir a esos entornos parameterse en toda la nube de IBM y demás.Yo creo que vamos a ver esa separación clara, al menos,hasta que, yo qué sé, hasta que tenga una posición dedominancia y luego es verdad que, por ejemplo,el iPhone en su día entró en entornos corporativos, pues,bueno, vete a saber si dentro de 5 años,cuando si OpenAI es el entorno de referencia en consumer,acaban generando también infra o cualquier otro tipo de cosa.Lo que pasa es que tienen que tener cuidado, ¿no?Porque como producto es replicable.Es decir, tienen ese modelo tan potente, pero se les acercan.Y se les acercan soluciones open source.Y no solo open source.Por ejemplo, esta semana, que es una noticia a la que no oshablo aquí, pero hijuetontantas, que ya no podemos, ¿no?Llevamos 2 horas y ya vamos a ir cortando.Pero lo digo, ha sacado en Antrophic también se mete,ha sacado su app con Cloud, que es otro chatbot y es multimodaly tiene todo.Y los modelos de Cloud son súper potentes.Y es un player más que viene a hacer lo mismo también, ¿no?Y que luego, si quieres el Pro, pues te cobra el mismo precioy tal.Esto en un momento dado va a pegar un shift.Porque cuando el iPhone no se replicaba fácil.Tardaron, ¿eh?Se puso Google con Android a través del software.Es otro tipo de ecosistema y tal, pero bueno,ahora los smartphones sí que se parecen todos un poco.Han tardado unos años en llegar a eso, ¿no?Pero esto no es tan difícil de replicar.Entonces, yo creo que OpenAI va a necesitar algo más, ¿eh?Para mantenerse ahí en la pomada.Porque, claro, luego está lo de consumer que tú dices,donde te pueden atacar, ¿no?Y te pueden atacar además con un offering,integración con Android, integración con IOS nativa,al que tú no puedes hacer frente.Y luego está toda la parte empresarial de los entornoscloud, de vender endpoints de inferencia y de soluciones másad hoc, ¿no?Yo quiero saber qué va a hacer OpenAI para mantenerse ahí.Porque de un tiempo a esta parte,lo que están haciendo es refritos del GPT-4 con unapropuesta de producto interesante,pero para mí no es rompedora.Pienso yo, ¿eh?No soy hater de OpenAI, yo soy suscriptor.Yo no punto, yo solo digo que internamente Lu esta semanaha propuesto cargarnos el uso de la compañía y usar Gemini.Gemini, o sea, yo no punto, si estoy uniendo puntos.Yo solo he entregado un report, ¿eh?No, bueno, es una herramienta de puta madre,pero es verdad que como solución enterprise,echar GPT-4 Teams, te da lo que te da,está bien porque tiene cosas.Pero claro, esto del Gemini for Workspaces,como crezca lo suficiente y en use Google,se lo va a tener que plantear.Porque te da cada vez más cosas.Entonces, bueno, ahí estamos.Mira, yo estoy contento porque han salido un montón de cosasnuevas y vamos a poder probar, fallo no,se va la gente, lo pone por Twitter.Esto para un podcast es lo mejor que te puede pasar.Pero, bueno, si con el podcast no tenéis suficiente, pues yasabéis, suscribíos a nuestra newsletter en tertulia.mambler.io,lo recuerdo siempre.Y vuelvo a decir, para los que os habéis enganchado al directomás tarde, que estaremos el día 13 de junio en OpenExpo en lanave en Madrid, haremos la tertulia de ayer,haremos entrevistas, pero si ocurre que estáis por allí,si vais, pues, oye, darnos un toque que hacemos un chocar demanos.Entonces, fíjate, les hemos recomendado que no se vean unakeynote de dos horas, pero sí que escuchen un podcast de doshoras.No sé si tiene mucha coherencia, pero os agradecemos a todos losque hayáis llegado hasta aquí o a ese que ha llegado hasta aquí,o esa, que igual ha sido uno o una.Te hablo a ti.Muchas gracias.Dijeron que iban a permitir que generase contenido erótico.A ver si esto van a ser unos, ¿cómo se dice?¿Pervertidos?No, lo contrario.¿Santurrones?¿Santurrones?Hay una palabra, pero sí.Sí.Pero es agotado, de porno.En porno sí, pero no diceis que está bien, o sea, está guay.Otro menudcillo así final para ver qué opináis.Porque cómo encaja todo esto, estamos hablando de OpenAI,estamos hablando de Google y estamos hablando de productosy modelos propietarios privados, ¿vale?Que desde el punto de vista de los usuarios,pero también de las empresas, pues tiene una serie decaracterísticas y restricciones.Y en el otro extremo tenemos a Meta con su llama como un modeloopen source que tú coges, te lo llevas a tu sitio y lo utilizascomo te da la gana.Son 2 estrategias completamente opuestas.
Leer más

Escúchalo ahora en

Últimas publicaciones del blog

¿Qué son las inserciones y cómo utilizarlas en tu podcast?

Con las inserciones de audio puedes actualizar y promocionar tus contenidos o ...Leer más

Facturar más de 11.000€ en 5 días con un audiocurso – Oriol Roda

Cuando descubrimos a Oriol Roda hace unos meses, alucinamos con los 60.000 sus...Leer más

¿Qué es una red de podcasts y qué ventajas ofrece?

Unirte a una red de podcasts puede beneficiar tus contenidos de diferentes man...Leer más

WAV vs MP3: ¿Cuál es la diferencia y cuál es mejor para tu podcast?

Conocer la diferencia entre los formatos WAV y MP3 es crucial debido al impact...Leer más

Beneficios de crear un podcast si tienes una ONG

¿Tienes una ONG? Estas son tres maneras en las que un podcast puede fortalecer...Leer más

Combinando venta de servicios y productos digitales para llegar a las 6 cifras anuales – Alex Llull

Alex Llull empezó estudiando comunicación audiovisual porque le gustaba comuni...Leer más