Avatar

#26-B: Apple ¿Intelligence?

La Tertul-IA: Inteligencia Artificial y más

Presentado por

La TertulIA

Cara B del episodio 26 donde hablamos de las novedades que nos trajo Apple en la WWDC y divagamos sobre las expectativas no cumplidas de la IA

Suscríbete a nuestra news, donde encontrarás también los enlaces de los que hablamos en el episodio, en https://tertulia.mumbler.io/

Transcripción

La cara B de la tertulia…Yo voy a comenzar a pelear por agua mientras la introduces, vale?Que si no, aquí muero. Pero no paréis por mí, por favor.Eso es porque no tienes tú que introducirlo, claro. Tú puedes permitirte hacer estas cosas.Se tiene compailo totalmente.Aquí está repartido el mundo. Luego, claro, luego dicen, me voy a hacer el trabajo o no.La cara B la vamos a dedicar a una cosa de la que nos gustaría hablar así más en profundidad y explayarnos,que es una cosa que ocurrió la semana pasada, que fue esta conferencia de Apple para developers.Bueno, ya sabéis, las conferencias siempre son para developers,pero realmente el target es cualquier consumidor de los productos de Apple.Y fue un momento importante o relevante porque siempre estamos hablando de Google, de Microsoft, de Amazony, bueno, por supuesto, Antropic, OpenAI y toda la gente que hay alrededor.No le quiero hacer de menos a OpenAI, pero bueno, es verdad que Microsoft está ahí soportando.Hablando sobre todo de las grandísimas compañías, no me quiero olvidar también de Nvidia,que va camino de ser la número uno en algún momento.Todos estábamos esperando que Apple pronunciara, no ya que sacara algo,sino que pronunciara las palabras Inteligencia Artificial,que es un término que no habían utilizado como tal hasta ahora.¿Significaba esto que no estuviesen haciendo cosas con Inteligencia Artificial?No, no significa esto porque Apple ha estado, como todo el mundo,subido al carro de la revolución del Deep Learning e implementando estas tecnologías en sus dispositivos,además con su visión de cómo había que hacer las cosas, en cuanto a privacidad de datos, sobre todo, lo hemos hablado algunas veces.Pero el término Inteligencia Artificial, voy a hablar de Artificial Intelligence para ir ordenando el acrónimo,AI, no lo habían pronunciado hasta ahora.Hasta esta Developer Conference, donde ya sí nos introducen el término AI, en este caso Apple Intelligence.Apple Intelligence como un conjunto de tecnologías dentro de los dispositivos Apple,que tienen un fundamento en IA generativa.No solo IA generativa, porque ya hacían cosas con IA, pero en cuanto a lo que se refiere a IA generativa, pues Apple se sube al carro.Apple hace no mucho ya estuvo dando algunos pasitos en el tema Open Source, que no les pega mucho,liberando algún modelo, este tipo de cosas, pero como digo, no habían pronunciado el término.Aquí fue todo lo contrario, en esta Developer Conference la protagonista fue la IA generativa, por supuesto.Y aquí anunciaron una serie de novedades en su sistema operativo para Mobile, IOS,que tenían que ver con funcionalidades de IA que te vienen ya preinstaladas en el dispositivo.Apple es verdad que en la familia, preinstalarse en el dispositivo digo porque se ejecutan ahí.Es verdad que en la familia última que anunciaron los iPhone 15, ya pusieron una arquitectura con una potencia de GPU bastante grande.Entonces no es una cosa que se les haya ocurrido la semana pasada.En esto ya estaban trabajando, pero ahora ha llegado el anuncio.Esto por un lado, toda esta parte de Apple Intelligence, que por resumirlo, ahora hablaremos más en detalle,pero por resumirlo así, digamos que es, esto tiene dos cosas.SLM para tareas muy concretas en el propio dispositivo y una nube privada para utilizar modelos de nubeque tengan que hacer cosas un poco más serias, modelos más grandes. Eso es Apple Intelligence.Y luego por otro lado, que es otra cosa que ha traído polémica, está la evolución de Siri.Que la evolución de Siri no es nada más ni nada menos que integrarlo con OpenAI.El nuevo Siri o la nueva Siri llama a GPT 4.0 para mantener conversaciones más ricas contigo y ofrecerte otro tipo de funcionalidades.Y aquí es donde ya se ha liado, porque evidentemente hasta ahora la política de Apple había sido la de tus datos no viajan por ningún lado,no los compartimos, se ejecutan en tu dispositivo.Han hecho unas campañas de marketing brutales alrededor de esto y ahora se integran con OpenAI.Hace no mucho estuvimos hablando de qué pasa con Siri y con Alexa. Pues señores, esto es lo que pasa con Siri.Con Alexa no lo sé. ¿Cómo lo veis?Además esto no ocurre ya, ¿no? Esto es un anuncio de que va a pasar.Para ellos 18. La integración de Siri no está. Yo me he actualizado la beta, lo he hecho en el iPad porque el teléfono lo necesito.Pero me he puesto la beta en el iPad y ya he disfrutado algunas novedades de lo que nos trae Apple Intelligence.Pero Siri no, no lo he podido probar.Es que es curioso, el otro día se lo escuchaba a los de Olin y Podcast, que me lo escucho mucho, ya lo veis cuando lo digo,pero hacían la reflexión y me parecía muy certera de que en los tiempos de Steve Jobs Apple anunciaba algo brutal y estaba ya.Lo anuncio y lo compras.Era hecho por ellos y lo tenías ya.Ahora estamos ya que anuncio algo que no es mío porque lo integro con otro, soplándome toda la parte de tal.Y encima tendrías que esperar no sé cuántos meses a que esté.Desde un punto de vista de innovación y liderazgo en el mercado, es casi una demostración de que Apple está muy fuera de juego en todo esto.Acaba convirtiéndose en un integrador de tecnologías, un empaquetador sobre su plataforma y no es el innovador que venía siendo.Puede ser para bien o para mal, pero dentro de que hay cosas de lo que ha anunciado Apple que molan y demás y apuestas,pues sí que hay cierta sensación de falta de liderazgo.Yo hace tiempo, efectivamente, que no veo un efecto wow en las novedades de Apple.Yo sigo siendo de Mac, eso lo tengo bastante claro, pero, por ejemplo, hace ya tiempo que decidí dejar de lado el iPhone.No le veo la ventaja respecto a Android y seguramente alguien me puede convencer de lo contrario.Pero siempre he esperado que saquen algo que me haga, joder, volver, por decirlo así.Igual que hace 2-3 años en el trabajo tuve que pasarme a Windows y lo pasé fatal y en cuanto he podido he vuelto a Mac.En el caso del móvil me pasé a Android y es que no veo, ya os digo, no veo ninguna razón ni tampoco cuando veo lo que hay,no veo otras personas que tienen iPhone, no sé.Y hay otros teléfonos de otras marcas con Android que sí te están dando cosas bastante parecidas, no veo tanto la diferencia.Claro, no sé si es que solamente Steve Jobs hubo uno o si simplemente ya, como hemos contado otras veces con otro tipo de empresas,han llegado a un punto, a este dilema del innovador o como lo queréis llamar, donde las cosas ya van como mucho más tranquilas, con menos riesgo,le damos a la gente lo que quiere. Es decir, estamos haciendo cosas para los que ya hemos convencido en el pasado,no para tratar de traernos más gente y de hacer algo disruptivo.Es verdad que lo último disruptivo que hicieron fue el tema de las Vision Pro y ahí sí que a mí por lo menos me crearon hype,tengo que reconocerlo y se me había olvidado antes. Pero luego, claro, cuando ves que el feedback que ha habido es tan malo,pues es como que se te baja el mollo, ¿no? No veo nada que te pueda, no sé.Yo no quiero decir con esto que no lo vayan a hacer bien. De hecho, si OpenAI está detrás de lo que van a hacer, joder, pues seguramente,y sabiendo más que Apple lo que hace es tratar de darte productos muy robustos, seguro que lo que van a hacer es bueno.No sé si es tanto mejor como lo que vayamos a tener por otros lados.Y cuando hablabas, Lu, del tema de los SLMs, recupero lo que antes me venía en la cabeza, en la cara,que está relacionado con aquello de esos modelos generalistas o de los modelos más especializados, más específicos.En este caso concreto hablamos de modelos, no en la parte que tienen que viajar los datos fuera, la parte de SIDI,sino los modelos que se van a ejecutar dentro del móvil, que son modelos de pocos billones de parámetros, que es lo que se puede.Y ahí lo que sí leía estos días era el proceso de fine-tuning con enfoques como LoRa o cosas así,que les van a permitir tener esos modelos tan enfocados a las tareas que Apple ha venido diciendo que se va a hacer dentro del iPhone.Y eso es un tema que sí me parece novedoso en cuanto a una aplicación real de algo que llevamos hablando tiempo.De SLMs, fine-tuneados, para que sean buenos en tareas muy específicas y que marquen una cierta diferencia.Tendremos que verlo, pero me parece un aspecto relevante, por lo menos.En cuanto a las cosas que habéis dicho, fíjate, yo voy a defender a Apple aquí, pero para eso tengo que dejarlo de SIDI de lado.Es muy difícil de defender, primero, porque no lo he probado.Y segundo, porque el approach me parece poco innovador.Es decir, si llamas a OpenAI, yo también lo hago.¿Qué me estás vendiendo? Tendré que verlo en acción.Es decir, creo que esto tendrá más de lo que parece.Pero bueno, al final, eso viola un poco todo lo que habían venido diciendo.En poder, por otro lado, una cosa que veníamos reclamando, que es que estos asistentes de voz evolucionasen de una vez con las tecnologías que tenemos hoy en día.¿Por qué lo hacen con OpenAI? Esa es mi pregunta.¿Cuándo están construyendo toda esta infraestructura y toda esta tecnología propia?Está claro que todo eso que hacen en Apple Intelligence, que es esa parte que no es SIDI, no sirve para esto.Porque si no, ¿por qué no usar su propia tecnología?Luego yo también quiero verlo en acción, porque el cebollazo de tráfico que le van a meter a OpenAI cuando eso se libere es una cosa bastante bestia.Y ya estuvieron medio caídos después de su última keynote.O sea que ahí deben estar yendo al corte inglés a comprar ordenadores, como hacíamos en nuestro tiempo, para montar el cluster.Y montar un datacenter, porque yo no sé.Pero en la parte, y aquí es donde ya si les defiendo, en la parte de Apple Intelligence me parece una solución cojonuda.Funciona bien la parte que yo he probado.Las cosas pintonas, dibujar en Apple Notes y que te corrija la letra, te resuelva las fórmulas y todo eso, me ha molado bastante.Para los chavales está muy bien además.Pero claro, esta idea de, y habrá que ver la performance en tareas muy concretas, pero esta idea que tú has dicho del fine tuning de SLMs.Y el ser capaces de tener ese, porque esto funciona, a lo mejor me gusta a mí porque al final es una developer conference.Y muchas de las cosas que dijeron eran como muy techy y tal, y hay algunos que eso nos gusta mucho.Entonces, esa solución de fine tuning, además lo explicaron muy bien, con adapters.Donde digamos que para cada modelo es como que le puedes cambiar la broca para distintos tipos de tareas.Y eso lo tienes en el teléfono, con una cuantización a 4 bits, que eso es una cosa brutal.Es una compresión brutal del modelo.Y que eso funcione tan bien para ese tipo de tareas con imágenes y tal, me parece que tiene un mérito.Y además, tiene un mérito bastante grande el hecho de que se pueda ejecutar en un móvil con el hardware que tiene.Que también hay que decir que todo esto va a funcionar si tienes un iPhone a partir del iPhone 15 Pro, que no es cualquier cosa.Entiendo que ya la familia iPhone 16, que se anunciará después del verano, vendrá totalmente preparada para Apple Intelligence.Y luego, por otro lado, me parece muy buena la solución que han hecho con las nubes privadas propias.Esto es lo del SLM, muy bonito, y lo de cambiar la broca y tal, pero eso no te resuelve tareas de calado.Porque sean un poco más generalistas o porque requieran mayor computación.Y para esto dan una solución, pero donde tus datos no viajan fuera de una nube privada, donde no hay persistencia,donde no se utilizan para hacer entrenamientos y ese tipo de cosas.Y Apple te la garantiza con una solución que está muy bien, donde sí que se te permite, además con una latencia mínima,porque todo está dentro de la red de Apple, utilizar modelos más grandes.Y lo bueno es que es la misma arquitectura que la del móvil.Es decir, la arquitectura que tienen estos servidores es como si fuera un iPhone de proporciones gigantescas,que es capaz de ejecutar grandes ERMs.Es decir, que esto te lleva a pensar en el futuro y en la escalabilidad del modelo.Que es que poco a poco, según vaya avanzando la tecnología y los teléfonos vayan siendo más potentes,irán absorbiendo capacidades de las cosas que se hacen en la nube.Hasta llegar al punto, o sea, esto te habilita un camino en el que el final del camino, que no sé si llegará algún día,es que todo se ejecuta en tu móvil, que es lo que quería Apple desde un principio.Y ahora, yo después de haberlo defendido y tanto, y de esta manera tan... no sé si he sido muy vehemente,pero bueno, digo, ¿no habíais podido hacer esto con Siri? O sea, ¿por qué no hacéis esto con Siri?Si sois capaces de hacer todo esto, ¿qué te da GPT-4 o qué no te da tu grande modelo de lenguaje?Y eso es lo que te hace entender que están por detrás, evidentemente, el hecho de que necesiten OpenAI.Este ha sido mi speech.Vale, yo como veo a corte y muy callado, o sea, les has defendido, creo que justo en ese punto no les estaba atacando.O sea, simplemente lo que decía es que creo que no es suficientemente diferencial y que es fácilmente replicable, ¿vale?Y, joder, lo comentaba también, en la aplicación de los SLMs, tal y como lo quieren hacer,me parece, es la primera aplicación que vamos a ver realmente, o parece que vamos a ver realmente buena, ¿no?En ese sentido, les doy todo el crédito.En el fondo creo que estamos bastante de acuerdo.Así que me gustaría explicar súper rápido, para la gente que tenga a lo mejor un poquitín de conocimiento más técnico,el concepto este de Broca que estabas diciendo, que es muy interesante.Para mí es algo muy ingenioso, por decirlo así.Básicamente la idea, cuando hablábamos antes de LoRa, como uno de los modelos de fine tuning que hay para los SLMs,lo que se hace cuando hablamos de fine tuning en este caso no es modificar el modelo.El modelo se queda tal y como está.Es decir, tú tienes la taladradora, tienes el modelo LLM de 3 millones de parámetros,y la taladradora la vas a usar para cualquier tipo de agujero, igual que el modelo lo vas a usar para cualquier tipo de actividad.¿Qué es lo que ocurre? ¿Qué es esa Broca?Pues esa Broca es otro minimodelo, por decirlo así, que está compuesto por un par de matricescon un tamaño muchísimo más pequeño, pero mucho más pequeño de lo que es el número de parámetros que tiene el LLM base,por decirlo de alguna manera, y es lo que puedes cambiar y especializar para cada una de las actividades.Entonces, manteniendo ese modelo base, entrenando esos modelos pequeñitos con esas matrices que son mucho más pequeñasy especializándolos, tienes en el mismo sitio, en el mismo hueco prácticamente,un montón de aplicaciones muy especializadas que no tienes de otra manera.Esa es la parte que me parece cojonuda. En una caja tienes la taladradora, todas las Brocas que necesitas de todos los tipos,para madera, para metal, para lo que sea, y en este caso dentro de tu iPhone. Esa parte me parece muy ingeniosa.Yo estoy muy de acuerdo con lo que está diciendo Frank, es decir, yo creo que han hecho algo muy guay,pero se han hecho lo que se esperaba que hicieran. Han perdido totalmente la posibilidad de hacer algo que llame la atención al mercado.Es decir, se han centrado mucho en toda esta parte de cómo generar una solución sobre sus arquitecturas,que cumpla con algunos elementos diferenciales de seguridad, privacidad, con sus enfoques y demás.Por decirlo así, yo creo que si no hacen eso, ya pierden cualquier tipo de posicionamiento en el mercado.Ya no me queda ninguna excusa para no comprarme un Android, ¿no?Pero claro, cuando siempre vas hasta por detrás de lo que se espera de ti, pues pasarán cosas.Lo que decías tú, Lu, es decir, el que Siri tire, o sea que al final va a ser realmente la parte que más va a utilizar los usuariosen la experiencia con un iPhone en su día a día, si funciona bien.Que eso que Skore, porque va a ser al final ese nexo de unión con sus usuarios, lo tengan externalizado,y encima en contra de su propuesta de valor, porque ahí pierden totalmente el control de la privacidad por mucho que digan y demás,es fuerte, ¿eh? Porque al final, ¿qué te diferencia de cualquier otro competidor del mercado ahora mismo? No sé.Yo, ahora qué esperaré, ¿en qué creo yo que pueden diferenciarse habiendo renunciado a utilizar su propio modelo para esto?Pues Siri no deja de ser un agente generalista que te acompaña.La implementación de ese agente, Siri es un asistente que es capaz de llamar a cosas, de hacerte la compra,se integra con sistemas, te dice el tiempo, no sé qué, no sé cuánto.Ese es el Siri que conocemos hasta ahora, ¿no? O el Alexa, o el Google, lo que sea.Claro, cuando a esto le metes la potencia de los LLMs, que es lo que estábamos demandando, ¿no?LLMs de muchísima potencia, pues ese tipo de agentes te pueden llevar a un nivel que pueda suponer una diferencia.Yo no he visto todavía una implementación de un agente inteligente que utilice un modelo generalista que realmente te ofrezca unas capacidadesque te mejoren en un conjunto significativo de tareas.Sí que he visto agentes que son capaces de hacer muy bien una tarea muy concreta, ¿no?Un proceso empresarial o reservarte un viaje, ese es el ejemplo que siempre se pone.Es inevitable que se venga a la cabeza, ¿no?Pero que requiere de integración con dos o tres APIs, de entender lo que dices y de tomar alguna decisión, iterar y patatín.Eso está muy bien, ¿no?Pero yo no he visto todavía un agente que con lo generalista que puede llegar a ser Siri,la capacidad para abordar un conjunto de tareas que se te puedan presentar en el día a día y de responder aparentemente casi cualquier pregunta que tú haces,no solo con una conversación, sino con una acción en el caso de que eso proceda.Eso es algo que yo no he visto.Entonces creo que ahí puede estar lo diferencial.Entendiendo que ya renuncian a que sea con un modelo propio, claro.Porque eso están renunciando ya de entrada, ¿no?Sí, lo que pasa es que hay un salto de fe importante porque si a día de hoy Siri no es capaz de hacer una acción básica en el iPhone,porque, joder, no sé cuál es vuestra experiencia, pero yo entiendo que al final es junto.La potencia que me da OpenAI, entender el mundo, entender el lenguaje,y es lo que le va a dar la potencia a la conversación con lo que ya tienen de Siri,que es esa integración con el sistema operativo y demás.O sea, mucho tienen que mejorar también esa parte, ¿eh?Porque más allá de programar un recordatorio, un tal y poco más, hasta enviar un email a mí a veces me resulta problemático.Entonces, bueno.O sea, si lo hacen bien, claro.Ahora, hay un salto de fe bastante importante viendo su posicionamiento.Sí, seguramente lo que les preocupe mucho son, o les ocupe mucho, son esos guardarrailes que hemos comentado muchas veces, ¿no?Al final el problema con Siri cuando tengas tanta exposición es cómo se va a comportar ante cualquier tipo de pregunta.Cuando digo cualquier tipo, sabemos cómo somos los humanos, vamos a preguntar absolutamente de todo.Positivo, negativo, destructivo, lo que nos dé la gana.Y cómo se va a comportar ahí teniendo en cuenta la imagen de marca que tiene Apple.O sea, si lo lanzan, desde luego entiendo perfectamente que está súper probado y comprobado.Y que a lo mejor han preferido centrarse menos en el modelo y centrarse más en poner algo por delante que lo guíe.Eso, desde luego, les ha preocupado porque, de hecho, había alguna filtración interna.Lo comentamos en el podcast en algún momento de que tuvieron algún problema interno en Apple con el equipo de Siri porque no les dejaban experimentar.Había ahí un comité que decía, no, vamos a probar esto.No, no puedes poner esto a los usuarios porque esto va con la marca Apple y a ver si la va a liar, ¿no?Entonces, claro, yo creo que evidentemente el tema guardarrailes será una cosa con la que tendrá una preocupación importante.Y seguramente es lo que causa estos retrasos, ¿no?Porque si les diera igual, eso ya lo tenías, haciendo el cabra ahí, ¿no?Pero bueno, yo creo que al final lo que te da el extra, digamos, es...A ver, Siri ya se integraba con cosas y era capaz de hacer cosas y te fallaba y no sé cuánto, ¿no?Y funcionaba de aquella manera.Pero lo que te da el extra es el hecho de tener el LM como cerebro.Es lo que puede hacer que eso llegue a funcionar bien.Aparte de entender mejor lo que dices, las preguntas y tal, ¿no?Pues, oye, el hecho de poder tomar decisiones sobre dónde consultar la información,cómo integrarse incluso con una determinada API sin que se lo hayan explicitado y ese tipo de cosas, ¿no?Pues yo creo que es algo que le puede dar un boost de funcionalidad que puede ser sensible para nosotros.O sea, que ya no sea una mierda, vamos a decir, ¿no?Lo he dicho, he sido demasiado franco, ¿no? Una cosa que está anticuada, voy a decir.Que es la sensación que te da interactuar con estos cacharros hoy en día, ¿no?Después de todo lo que tenemos, pues te da la sensación de que está anticuado, de que no te funciona,de que a veces dices algo, estás hablando con un compañero de trabajo con el que vas en el cochey de repente se pone a llamar a tu suegra y cosas por el estilo, ¿no?Pues esas cosas que empiezan a pasar menos.Fíjate, esto les daba igual, hablando de guardar raíles, ¿no?Si hicieran esas cosas, es como daba igual. ¿A qué tienen miedo, no?Pues, precisamente, yo les tendría miedo al GPT-4.Porque eso no es algo que hayan entrenado ellos con sus datos, ni que hayan limitado ellos de ninguna manera.Ese bicho hace lo que quiere.Entonces, no sé. Estarán muy seguros de lo que hacen.Sí, como lo de antes. Supongo que habrán hecho pruebas súper exhaustivas de todo tipoy que están convencidos de que es el modelo a utilizar. Quiero pensar, ¿no?Eso lo harán seguro, pero tú en el momento que esto lo sueltas ahí en la jungla,pues empiezan a salir cosas que la gente pone en Twitter.Eso es.Yo, sinceramente, esto que dice Frankie, habrán hecho pruebas tal que quiero pensar.Yo creo que es que lo quieres pensar.Me refiero, ¿no os da la sensación, con un movimiento de este tipo, relativamente apresurado?Es que suena apresurado. Se están saltando hasta su forma de proceder.A mí me suena a un, tenemos que meter esto ya, tenemos que hacer anuncio en el evento de desarrolladores,tenemos que contar algo de la IA, está todo el mercado esperando que haga algo en IA,tengo que contar algo.A mí me, yo dudo mucho que, habría que ver, ¿no?Seguramente nunca accederemos a si han hecho pruebas o no y el nivel de exhaustividad de esas pruebas,pero me huelo que es bastante menos profundo todo lo que podamos pensar de todo esto de lo que debiera ser.Para tomar una decisión empresarial de este tipo son una decisión que vale billions o trillones, no sé,porque lo que vale lo que varias generaciones de teléfonos, ¿no?Al final vale media marca.Desde el punto de vista de Apple, ¿no os parece que hubiera sido mejor, y también por cómo son ellos normalmente,en relación también a lo que has dicho tú, Korti, al principio,¿no hubiera sido mejor no decir nada hasta que no lo pudieran liberar al día siguiente?Estamos de acuerdo.¿No hay un interés de OpenAI en que estas cosas generen ruido, no?Es decir, ¿quién tira la sartén por el mango aquí, no?Quizá esto lo ha forzado OpenAI.Han dicho, si queréis este partnership, tenéis que anunciarlo en el evento,porque si no Apple, ¿Apple qué gana con hacer esto, que nos echemos todos a la yugular?Claro, porque estás hablando de la compañía más valiosa del mundo, no sé si es la segunda o la tercera, que es Apple,contra unos mierdecillas desde un punto de vista negocio, más allá de otros aspectos más subjetivos.Si no vamos a pasta, OpenAI no debería tener ningún tipo de capacidad de extorsión a un Apple.Y luego está lo que hemos dicho antes, esta demanda que retiró Elon Musk fue a los dos días prácticamente de esta anuncio,que la gente hablaba también en foros y tal, y lo que hacía era relacionarlo.Elon Musk le expuso de vuelta y media.Sí, efectivamente, le expuso de vuelta y media. Y acto seguido retiró la demanda.Elon Musk en Twitter, estamos hablando de Twitter, dijo que como sus empleados trajeran un iPhone,que si salía Siri integrado con OpenAI, que iba a prohibir los iPhones en sus oficinas,y que si alguien lo traía los metía en una cama de esfarada y no sé qué.Salvo que le hagan CEO de Apple, que entonces le parecerá bien.Exacto.Es verdad que no debería tener OpenAI ningún tipo de capacidad de dictarle la agenda a Apple de sus eventos,pero es que yo creo que hacer este anuncio no les aporta nada.Nada bueno, porque Apple vuelve a ser ahora, creo, después de este evento,vuelve a ser la empresa con mayor valoración, porque le había pasado a Microsoft.Pero eso se atribuye a Apple Intelligence, que es una cosa que, oye, de hecho ya puedes probar tú,y se entiende que como en septiembre, o sea dentro de dos meses,vamos a tener nueva generación de teléfonos, pues las acciones se disparan, después de esto.Pero eso no es por Siri y OpenAI, eso solo te puede restar, yo creo.Porque es que todo es incertidumbre, como te he dicho, no sabemos cuándo va a estar,ya se entiende que han tenido que ceder, no sé, un poco raro el anuncio este.Por otra parte, están respondiendo a una cosa que se demandaba, ¿no?Oye, ¿qué pasa con los cacharros estos? ¿Se mueren ya los cacharros estos?Yo creo que hablando un poco ya así de lo que es el futuro, y aquí podemos hablar de otro gran tema,que queríamos traer hoy para el tema principal, que es el nuevo Rabbit R1 de Corti.Lo que es el futuro de los dispositivos móviles, que lo hemos hablado alguna vez aquí,si nos íbamos a ir a unos wearables, Frankie ha hablado de las Vision Pro,que a mí realmente no me parecen mucha innovación, la verdad, y no me extraña que se la hayan pegado.Aunque la volvieron a sacar en la conferencia esta, ¿eh?Dijeron, ya te las puedes comprar en más países. Digo, sí, ahora voy.Pero, claro, ¿cuál es el dispositivo móvil del futuro?Pues la sensación que hay después de estos anuncios y después de que se anuncien avances,que Google también vaya a sacar nuevas familias de móviles y ya estén hablando de un montón de temascon Gemini dentro del móvil y tal, ¿no? Las sensaciones que el dispositivo del futuro,al menos por mi parte, es el móvil.Estoy de acuerdo.Perdona, pensé que habías terminado.No, no, lo había terminado, sí. Va a ser muy difícil que salga otra cosa que le haga sombra.Seguramente cambiará temas de hardware en el móvil, o a lo mejor puede ser que lleguemos a tener una,yo qué sé, una pantalla holográfica que, no sé, con teclados hápticos, lo que queráis.Pero en el fondo que no deje de ser un móvil lo que haya detrás.Pero estoy de acuerdo contigo.Lo único que, no sé si podría desbancar, no desbancar, podría es combinarse con unas gafas,no en plan Vision Pro, sino unas gafas como las que ya hemos puestas ahora mismo, ¿sabes?Que te permitan una realidad aumentada combinada con el móvil, ¿vale?Pero es que el móvil es tan sencillo, tan fácil, lo que estamos tan acostumbrados a llevar encima,que no sé, a mí a día de hoy no se me ocurre nada.Porque al final una Vision Pro son súper aparatosas.Está muy bien para estar tumbando el sofá y jugar a un videojuego o alguna cosa de esas.Pero para ir por la calle seguramente evolucionará, pero es súper aparatoso.Pero el móvil ya lleva unos cuantos años y ha cambiado un poco el formato, pero joder.Nuestros hijos ya salen con uno en la placenta prácticamente. Es lo que nos falta.¿Tú qué tal, Corti, el Ravid ese? ¿Te sustituye al iPhone?O sea, todavía no he acabado los primeros pasos.O sea, la experiencia muy regulera a todos los niveles.Desde detalles tontos que no te viene cargado, viene sin cable para cargarlo.O sea, no sé, desde luego eso que lo hace bien Apple, desde luego esta gente no lo ha sabido hacer.Y el proceso no es la cosa más intuitiva o fácil del mundo.Que escanear un QR, que no funciona la primera.Os he dicho que me ha pasado que como he leído desde que lo compré hasta que lo he recibido,ha pasado mucho tiempo y he leído muchas reviews de mierda.¿Qué pasa? Que ya cuando lo coges, lo coges como casi para tirar la basura.Se ha caído todo el hype. Y esto es una putada, que es una cosa que estaba pasando.Algún día a lo mejor también profundizamos, ¿no?Con el pin este de Human también ha habido que quieren vender la compañera de Rivoporque tampoco se han cumplido expectativas.O sea, al final estas cosas o cumplen un mínimo de expectativas y enamoran a la genteo no van a conseguir adopción.Yo sí que creo que en el medio plazo los móviles se van a transformar en otras cosas,van a evolucionar, se hará un otro dispositivo.Porque muy seguramente las interfaces que va a permitir la IA bien integrada,pues un Siri VM, si funcionará bien o tal.Eso va a hacer seguramente evolucionar algunas cosas.Pero evidentemente no hay nada a día de hoy, entre estos huéravos que han salido al mundo IA,que parezca que sea una alternativa real en los próximos cinco años.Mucho tiene que cambiar.Hay una cosa que has dicho, Corti, que a mí me parece clave en todo esto,que es el tiempo que ha pasado desde que tú lo pediste.Recuerdo cuando anunciaron el Rabbit R1 este, como si fuera a haber más de uno.R1 y ya.Se puso todo el mundo loco.Porque estábamos en un punto, esto es hace cuatro o cinco meses, no me acuerdo cuánto.Estábamos en un punto en el que eso, tener un pin aquí que tú le dierasy pudieras hablar con chat GPT, no sé.Era una cosa que nos parecía ciencia ficción casi, como lo siguiente.Pero en poquísimo tiempo ya no le vemos valor a tener ese cacharro ahí.Y es verdad que lo de Humane se pegaron unos tíos, además es un cacharro mucho más caro.Y todo el tema este de los pines es como que se ha bajado un poco el hype.Pero lo que pasa con muchos temas relacionados con inteligencia artificiales que el hype se está desinflando muy rápido en cuanto a lo que eran las expectativasde lo que se iba a convertir esto.¿Por qué? Porque cuando había una cosa que antes de ayer no era posible y hoy lo es,pues a todo el mundo le parece impresionante.Pero cuando pasa un periodo en el que ves que el valor que te aporta tampoco es que sea la re leche,si era una cosa que era posible y hoy lo es, las cosas se desinflan.Y se ve con muchos productos, no solo hardware.Con productos también basados en inteligencia artificial.Cuando salió la solución del RAG empezó a montarse mucho producto alrededor de esto.Y que al principio impresionaban mucho y poco a poco...Hablar con un PDF, pues muy bien.Es como que ya sé que se puede.Empieza a desinflarse mucho el valor que tiene eso.Y yo creo que es que el valor de...No sabemos muy bien a dónde vamos a llegar.Luego está el tema de si estamos llegando a una meseta.Lo hemos hablado alguna vez y lo seguiremos tratando.Sobre las expectativas de la IA a futuro.Adelanto de próximos podcasts.Voy generando hype yo también.Pero es que yo creo que el valor de verdad no va a estar en ideas felices.El valor de verdad va a estar en que estos sistemas realmente funcionen bien.Y ahí entiendo, volviendo a lo de Claude, entiendo muy bien esa estrategia.Estando de acuerdo conmigo mismo, claro.Porque podría ser que no.Esto, una de las cosas que he leído por ahí al respecto de todo lo que estamos hablando,se llega a hablar de fraude incluso.Habría que ver cómo afecta esto también a otras aplicaciones.Porque, bueno, el hecho de que de repente hayamos normalizado el hablar con un PDFes un tema de la velocidad a la que va todo.Ahora ya nada nos sorprende.En cuanto tienes algo nuevo, a los dos días ya te parece pocoy esperas que te vuelvan a sorprender.Yo creo que nos hemos acostumbrado mal.Pero por lo menos tiene un valor.Desde mi punto de vista, el hablar con el PDF te ha dado un valor de verdad.Estamos hablando de aplicaciones fallidas y aplicaciones que tampoco son baratas.Y estamos hablando de algo que llega al público masivo.Porque hablar con un PDF quizás es más un entorno de empresa.Aunque, bueno, lo puedes hacer con tu AGPT.Tú le pasas el PDF y le preguntas, no hay ningún problema.Ya os digo, si hay algo de hablar de fraude, yo no sé si tú lo sientes así, Korti,ya que al final, joder, te apagas la pasta y de repente ves que no conduce a nada.A ver, fraude es una palabra muy gorda, ¿no?Entiendo por dónde van los tiros.Al final lo que hay es una gestión de expectativas muy mala.Al final hay un diferencial entre el relato que te cuentan cuando salen estos productos.O sea, que tanto Humane, sobre todo el de Humane, por ejemplo, yo nunca lo he usado.Pero, joder, cuando salió el anuncio, eso era como un intento del nuevo Apple, ¿no?Es decir, sacamos una tecnología disruptiva que va a cambiar al Smartphone, que va a hacer mil cosas.Y luego eso no funciona ni para cagar.El Rabbit quizás lo bueno es que era más un juguetito ya desde inicio.Pero es verdad que en ninguno de los casos se cumplió expectativas.Esto al final pasa en todas las industrias.O sea, en cripto, por ejemplo, que ha habido estas subidas y bajas en los últimos años,ha habido un montón de cosas.Ya más allá de las subidas o bajadas de los tokens,es un tema de que las tecnologías no están siendo utilizadaso los tokens que se utilizan para determinadas cosas no están teniendo el impacto esperado.Lo mismo pasó en NFTs y demás.Y yo creo que esta hora está llegando a la IA.Ha habido mucho dinero.Hay mucho dinero.Hay mucho interés por crear cosas que crecen muy rápido.Y sinceramente, seguramente el estado de la tecnología no está para hacer un hardware todavía avanzado.Tiene mucho más sentido en el fondo este enfoque que estábamos comentando ahora.Que todo esto se integre en un móvil.Empecemos a ver dónde está el valor.¿Por qué?Porque la plataforma ya la tienes.Y luego a partir de ahí se puede evolucionar o saltar a otra plataforma.Pero bueno, yo creo que además es un tema de gestión de expectativasy hemos vivido un hype de todo esto.No creo que ahora volvamos al vacío,pero sí que es verdad que va a haber una corrección de mercado.Hay muchas cosas en este mundillo de la IA y de la IA generativa que no están cumpliendo expectativas.Decía antes, Lu, también estamos llegando a mesetaso parece en cuanto al performance, resolución de problemas y tal.Quizás nos toque un año o dos años por delante más de optimización de lo que hay.Es muy en línea lo que hablábamos antes con los LLMs.Mejor ya no hay mucho más avance.Empezamos un poco a rebajar expectativas y entender lo que nos aporta la tecnología actual.Y nos enfocamos en que esta tecnología sea más rápida, más eficiente, más coste efectivo y demás.Para que realmente pueda ser útil en algo.Y no estemos viviendo este hype continuo de esto va a resolver cosas muy potentes.Resuelven muchos problemas, pero no todos.Y no tiene sentido en todos los formatos.Y al final, con este tipo de cosas, estas tecnologías que no son humo,tienen un valor intrínseco y hacen cosas que no se podían hacer antes.Al final, quien se va a llevar el gato al agua seguramente,esto lo adelantaba Andrew Heng hace ya tiempo, porque se lo dije cuando estábamos.Al final van a ser los cloud providers, seguramente los que sepan,que son los que hacen los picos y las palas para este tipo de cosas,los que aprovechen mejor el tirón.No son exactamente los que hacen la materia prima, que son los modelos fundacionales,aunque también tienen la capacidad,pero son los que te dan las herramientas para que tú puedas hacer cosas que sí tienen valor.Y ahí yo creo que va a estar la pasta.Y quizá haya compañías como Meta y tal que hagan un shift en un momento determinado,porque tienen la capacidad para hacer ese tipo de cosas.Pero yo, por ejemplo, ahí, en el trabajo que está haciendo Google, AWS, Azure y tal,sí que veo un valor tremendo.Y de hecho, yo creo que en cuanto a dinero, son los que se están llevando el gato al agua.Y luego todo ese ecosistema que se ha montado hardware y no hardware,de productitos que van surgiendo y tal,y que luego son fagocitados por una funcionalidad nueva de esta GPT,pues eso es una cosa volátil que tendrá su periodo de vida.Habrá quien saque mucho provecho.La mayor parte serán unos enanitos que terminarán desapareciendo.Y se quedará lo de siempre.Yo creo que hay mucho valor en la inteligencia artificial y todas estas apuestas tan arriesgadaslo tienen muy difícil precisamente porque existen los grandes.En el caso del hardware, fíjate, la carrera esta de los móviles cada año es anunciar algoque justifique que te cambies el iPhone o el teléfono que sea.Meterte a competir con eso es una cosa difícil.Yo no veo los dispositivos, incluso aunque funcionaran bien,yo no veo a estos dispositivos metiéndose en esa carrera que iba a ser lo siguiente.Por cierto, Google, no lo dijeron explícitamente, pero sacaron unas gafas.Hablando de las gafas que decías tú, Frank.En el último evento.Hicieron un momentito de demo ahí con las Google Glass.Yo quería volver sobre el tema de la meseta que estábamos comentando antesporque ya ha salido, no sé si en alguna conversación de podcast o en alguna privada o algo así.Es un tema al que le he estado dando alguna vuelta últimamentey quizá antes tendría a pensar más que sí y ahora pienso que no.Por el tema de la meseta, creo, y volviendo a una de las reflexiones que hemos hecho antes,creo que estamos pasando a lo mejor de una aceleración exponenciala una aceleración que sea más lineal.Pero creo que seguimos subiendo bastante todavía.Estamos lejos de parar y la prueba está en que cada programa que hacemos,tenemos un LLM que es mejor que los anterioreso hablamos de agentes que no hemos dedicado a un programa todavía,pero lo vamos a dedicar en algún momento.O hablamos de frente a un encante no se podíao hablamos de que se meten ahora en dispositivos móviles.Y nos dejamos un montón de aplicaciones que están alrededor.Todo lo que no es un LLM también muchas veces nos lo dejamos por el camino,pero hemos comentado también aplicaciones a, yo qué sé,como hemos dicho antes, los antibióticos que nos pueden cambiar el mundo, ¿no?Por decirlo así.O sea, creo que todavía estamos muy lejos de esa meseta reflexionando con tranquilidady creo que todavía nos queda a corto plazo incluso muchísimo más de lo que nos imaginamosviendo el ritmo que va todo.Yo creo que esa meseta es más, o sea, muy centrada en LLMy muy centrada en, o sea, es como la evolución que ha habidopara que estas tecnologías resuelvan problemas, ¿no?Es decir, venimos de un momento donde se ha acelerado muchoporque en dos años hemos pasado de que un sistema apenas fuera capaz de crear algoa que es capaz de crear, escribir, tal, tal, tal.Y ahora está habiendo un montón de evolución,como estás diciendo tú, Frankie, ¿no?Y a lo mejor hacerlo más óptimo, con menos parámetros, que performe más rápido y tal,pero el problema que te ayudan a resolver, o sea, el ser capaz de crear cosas nuevas,de responder preguntas, escribir, es la parte que nos está acelerando tanto.Es decir, está llegando a un punto donde las mejoras incrementales son cada vez más pequeñas.Siguen siendo notables, pero sí que es verdad que cuando,yo al menos cuando ves las evoluciones de estos últimos dos años,que veníamos de, claro, de soy un algoritmo tonto a soy capaz de escribirte un libro,que es un salto cualitativamente muy grande, ¿no?Creo que es más un tema cualitativo, ¿no?,del tipo de problemas que te pone a resolver versus esto que estás diciendo, ¿no?Que sí, va a seguir habiendo mucha innovación,pero no vas a resolver problemas muy distintos, quizás.Fíjate, ahí es donde no estoy del todo de acuerdo.Creo que precisamente ahora es cuando vamos a poder ser capaces de resolver estos problemas,al hilo de lo que estábamos diciendo.Ahora podemos meter los LLMs en el móvil y hacer cosas que antes no podíamos.Ahora estamos viendo todo lo que ha hecho DeepMind durante muchos años.Estamos viendo que puede tener un impacto en la sociedad.Estamos viendo que toda esa aceleración tecnológica quizás es cuando ahora puede tener aplicacióny a lo mejor es lo que todavía no ha empezado a, de hecho, acelerarse.No lo sé, mi percepción es otra.Mi percepción es que ahí es justo donde,si pensamos en los problemas que ya tenemos medio resueltos, no los vamos a mejorar,pero estoy pensando más en los problemas que todavía no están resueltos del todo,donde creo que puede haber mucho más impacto.Yo creo que habláis de lo mismo, ¿eh?O sea, ¿estáis de acuerdo?¿Os queréis hacer como que discutimos?Porque yo os digo, a ver…¿Qué es lo que discutimos?¿Alguien tiene que discutir en algún momento, no?Y hacéis como que discutís, pero estáis hablando de lo mismo.Es como cuando mi suegro y mi padre se ponen a darse la razón, ¿no?A gritos.Pues igual.No, yo creo que es que estáis hablando de lo mismo porque, realmente,el salto cualitativo en cuanto a posibilidades ocurre en la época de expansión brutaly de curva exponencial y tal,porque, claro, evidentemente, como decía Corti,había problemas que antes no se podían resolver y ahora sí.Y, en cambio, el valor se encuentra más en la época de optimización,que es de crecimiento más lento.Oye, ya sabemos que esto existe, entendemos bien la tecnologíay tenemos manera de integrarla y de hacer cosas con ella,pues, claro, a mí me dicen,existe un LLM gigante con el que se hacen unas cosas de la hostia,pero tú no puedes saber de él como cuando salieron GPT-2 y GPT-3, ¿no?Sí.Pues, muy bien, jeje, que me cuentas.Me parece guay.Me enseñas un vídeo, ¿no?Pero, claro, cuando te lo pones en las manosy cuando tú puedes ir con poco dinero, usarlo y aplicarlo,aunque eso no pegue otro salto cualitativo,es cuando viene el valor.Porque el valor es encontrar dónde, cómo y cuándo aplicar esto, ¿no?Y para qué, sobre todo.Y ahí es donde nos metemos ahora, yo creo.Por eso decía que los cloud providers tienen mucho protagonismo en estoporque están proviéndonos de las herramientas necesariaspara que nosotros podamos hacer cosas potentes.Y ahí es cuando la creatividad, no tanto hacer nuevos modelos,que esos seguirán los que los hacen, ¿vale?Los Anthropy, que ha sacado uno y mañana será otro.Y para ti, oye, al día siguiente están en todos los cloud providersy los puedes usar.Y seremos nosotros los que, espero que nosotros y la gente que sabe lo que hace,los que seamos capaces de sacar el valor de eso.Y como ocurre siempre, y yo no me cansaré de decir estoporque este es mi enfoque pesimista.Bueno, chicos, ¿qué hacemos? ¿Qué hora es?En las seis y media pasadas.¿Tenéis algo más?Yo creo que podemos seguir dejándolo aquí.Yo creo que nos llevamos ya dos horitas y algo.Sí, vamos bien, ¿no?Espero que nuestra audiencia tenga material para el fin desemana.Lo podéis ir poniendo así en fascículos.Recordamos que saldrá nuestra newsletter tertulia.bomber.iodonde podéis encontrar más info, incluso, que en el podcast.Así que suscribíos y, bueno, pues nos vemos en el siguiente.Un saludo.Un abrazo.Un abrazo a todos.Buena semana.Adiós.No vamos a ser capaces de explotar el potencial en lamayor parte de los sitios, porque hemos tenido herramientaspotentísimas siempre y es que el ser humano es así.Y no es capaz de sacarle provecho porque siempre pensamosen el corto plazo y tal, pero aquí se va a llevar el gato alagua el que tenga la visión de coger estas tecnologías yaprovecharlas para hacer cosas que aporten, no para inventarsecosas que molen.Y esa diferencia es útil, pero hay que tenerla en cuenta.Justo.Al final es como, por poner un símil, pero que a lo mejor noes el más adecuado, pero es como potencia bruta versusaplicación, ¿no?Es decir, cuando hablamos de esto y cuando habla mucha gentede esta meseta y tal, es como que el incremento en latecnología base no es tan fuerte.Pero lo que dice Luis, yo sí que estoy de acuerdo,donde va a estar ahora la diferencia es, oye,¿cómo esto se utiliza?Oye, son modelos más pequeños los que tienen que ir en unmóvil y entonces va a hacer que el móvil lo pueda utilizar.Vas a poder tener un Siri que no tiene, imagínate,por ejemplo, del app de OpenAI porque puede estar en unmodelo realmente metido en el móvil y eso te permite hacerno sé qué.Lo que hay ahora ya es suficientemente potente paramuchas cosas.Otra cosa es si, por decirlo así,desde un punto de vista visión muy desde arriba,si vamos a seguir teniendo un crecimiento de la IA,que esto, yo qué sé, pues que realmente el año que viene odentro de dos años o dentro de tres años tengamos unainteligencia general o algo que sea capaz de sentir como un serhumano, porque hay también artículos, ¿no?Yo creo que es ese crecimiento en potencia bruta lo que te llevaahí a esa parte más abstracta, aspiracional y disruptiva,pero lo que queda mucho es sacarle valor.Si lo decíamos antes, si es que no está,hay muy pocas aplicaciones quitando cositas B2C enproducción con IA a gran escala.El reto está ahí, es decir, oye ya con lo que tenemos,¿qué podemos hacer?Y se pueden resolver muchas cosas.Decía Lu, sigue habiendo mucha gente tirando carretillas porel mundo y sin ningún tipo de valor.Haciendo esto a mano.O sea, es que es una cosa que lo vemos en el día a día y no esinteligencia artificial, es cómo funcionan los cerebros, ¿sabes?Y al final quien se lleva el gato al agua es quien tiene elconocimiento, por supuesto, de lo que se puede hacer y la visióntambién para, oye, aplicar.Y oye, si tú esto juntas las capacidades de esto sinevolucionar más, con la meseta, ¿eh?Las capacidades que tenemos hoy en día,eso lo juntas con personas, con la capacidad de la visión y lamentalidad de resolver problemas y de optimizar las cosas,eso es un combo brutal porque lo que ya tenemos estremendamente potente, ¿eh?Tremendamente potente.Aunque alucinen.
Leer más

Escúchalo ahora en

Últimas publicaciones del blog

¿Qué son las inserciones y cómo utilizarlas en tu podcast?

Con las inserciones de audio puedes actualizar y promocionar tus contenidos o ...Leer más

Facturar más de 11.000€ en 5 días con un audiocurso – Oriol Roda

Cuando descubrimos a Oriol Roda hace unos meses, alucinamos con los 60.000 sus...Leer más

¿Qué es una red de podcasts y qué ventajas ofrece?

Unirte a una red de podcasts puede beneficiar tus contenidos de diferentes man...Leer más

WAV vs MP3: ¿Cuál es la diferencia y cuál es mejor para tu podcast?

Conocer la diferencia entre los formatos WAV y MP3 es crucial debido al impact...Leer más

Beneficios de crear un podcast si tienes una ONG

¿Tienes una ONG? Estas son tres maneras en las que un podcast puede fortalecer...Leer más

Combinando venta de servicios y productos digitales para llegar a las 6 cifras anuales – Alex Llull

Alex Llull empezó estudiando comunicación audiovisual porque le gustaba comuni...Leer más