Avatar

#26-A: Elon, OpenAI, Claude y un millón de antibióticos

La Tertul-IA: Inteligencia Artificial y más

Presentado por

La TertulIA

Cara A del episodio 26 con la recopilación de noticias de estos últimos días.

Suscríbete a nuestra news, donde encontrarás también los enlaces de los que hablamos en el episodio, en https://tertulia.mumbler.io/

Transcripción

Muy buenas tardes. Saludamos a nuestra audiencia en una nueva tertulia. No estábamos poniéndonosde acuerdo en si era la número 26 o la 27. Ya empezamos a tener problemas con esto decontar como le pasa también a algunos LLM, ¿verdad? Se nos está pegando. Se nos peganya las malas costumbres y también ocurre al revés, como sabéis. El caso es quiénterminará haciendo las cosas peor, si ellos o nosotros. Hoy vamos a hablar de LLMs y deun montón de cosas, porque siguen pasando cosas. La semana pasada estuvimos en OpenExpohaciendo el podcast oficial del evento donde pasaron cositas, pero ese material no lo hemossacado todavía. Así que yo lo menciono aquí para crear un poquito de hype, ¿no? Es unprograma un poco especial que ya aviso a nuestra audiencia que lo vais a disfrutar.¿No vamos a decir a quién entrevistamos? No, lo dejamos ahí en misterio, ¿no?Una lluvia de estrellas, por decirlo así. Era como pum, pum, pum.Sí, era como increchando además. Era como, Dios, ¿pero qué está pasando? Así que nada,se hablaron cositas muy interesantes, gente que tiene algo que decir en el mundo de lainteligencia artificial. Así que no dejéis de escucharlo, pero hoy es hoy. Estamos aquísaludando al verano. Hoy es día 21 de junio, el día en que grabamos esta tertulia. O sea,que oficialmente es verano. Yo siempre digo, saludamos al verano y queda un mes y medio,porque hace calor. A mí se me pega de vacías, ¿no? Las cosas de los cálculos se me dan mal.Pero aquí estamos. Voy a saludar a mis copaidos Frank y Corti. ¿Cómo estáis?Muy bien. Aquí ya con el calorete.Todavía no mucho, pero la semana que viene.Ya viene, sí.Ya viene, sí. Es inevitable.Muy buenas. Pues encantado de estar aquí, como siempre.Es inevitable. Encantado yo también de teneros. Es inevitable teneros.Es inevitable el calor y es inevitable el advenimiento de las noticias de inteligenciaartificial. Pero antes de que empecemos, vamos a recordar que tenemos una newsletter,tertulia.mambre.io. Podéis suscribir y allí encontraréis cositas de las que no hablamosaquí, porque como sabéis que es un programa muy limitado en tiempo y que vamos muy al grano,pues no nos da tiempo. No cabe todo. Lo encontráis en la tertulia.Y para mí, y no solo para mí, también para muchos de mis compañeros en Product Hackers,es una semana muy especial. Lo hemos dicho ya en varios programas, pero la semana que vienetenemos un gran evento, el Product Hackers Day. Si escucháis esto, quedará muy poco para que secelebre, pero yo creo que aún estáis a tiempo, si lo escucháis a tiempo, de apuntaros al evento ytenéis el cupón Tertulia, con mayúscula, para que os haga un descuentito.Si no, podéis viajar en el tiempo. Si lo escucháis más tarde, pues os viajáis en el tiempo,al 25, 26, 27 de junio, y os vais a conference.producthackers.com. Y ahí usáis el cuponcito Tertulia.Y si no, que se apunten la fecha para el año que viene.Ahí estaremos. Yo, en mi caso, no tengo una sesión ni una charla. Yo hablo de mi libro,pero voy a estar allí, culeverando, repartiendo canapíes o lo que haga falta.Y si alguien quiere acercarse y hablar de IA, o de Growth, o de lo que le parezca, pues allí nos vemos.Yo tengo muchas ganas.Muy bien, pues vamos con las noticias entonces. Le dedicamos una pequeñísima sección rápida a la actualidad,como siempre, desde nuestro prisma. Nosotros cogemos aquí un poco lo que nos apetece o lo que nos llama la atención.Y hago este disclaimer porque la primera que traigo yo es una cosa que a mí me gusta mucho,pero que no ha salido en la portada de ningún periódico. Ha salido en Twitter, pero vuelve a haber biff entre Jan LeCun y Elon Musk.Ya estuvimos hablando de esto, que es algo que evoluciona y que no para al final.Se ha parado más o menos, porque Elon Musk le ha bloqueado a Jan LeCun, como estaría la cosa.Pero una de las últimas discusiones que tuvieron a mí me llamó poderosamente la atención,porque es un debate que se da mucho en los ámbitos científicos sobre quién tiene que llevarse el crédito del trabajo que se hace.En este caso, Jan LeCun le sacaba un artículo científico en el que aparecía el nombre de Elon Musk.Es un artículo de Neuralink, anunciando avances en Neuralink, del año 2019, donde los autores son Elon Musk y Neuralink.Es un artículo científico donde se menciona el nombre de Elon Musk como primer autor y Neuralink, la entidad Neuralink, abstracta, como resto de autores, lo verdadero científico.Entonces, Jan LeCun se lo afeaba un poco, bastante, porque no es un poco el código que se sigue cuando se menciona la autoría en un artículo científico.De hecho, si escucháis nuestro querido podcast Coffee Break, es un tema que se ha traído a la oración muchas veces.Allí son científicos de si debe estar el jefe del grupo aunque no haya hecho nada en el artículo, de si debe estar una persona que solo ha financiado, ese tipo de cosas.En este caso ya es como el extremo.Y yo creo que es algo que en esta era de la inteligencia artificial, diréis, ¿pero qué tiene que ver esto con la inteligencia artificial?Más allá de que Jan LeCun, entonces, tiene que ver seguro con eso.Yo creo que ha habido un shift en la producción científica y gran parte de la producción científica que antes solía venir de la academia o de los centros de investigación que normalmente son públicos,pues en inteligencia artificial empiezan a ser predominantemente producidos por empresas privadas, al menos los más importantes.Ha aumentado muchísimo el volumen de producción científica en inteligencia artificial por parte de empresas.Y claro, en ese caso, ¿de quién es la propiedad intelectual de un avance científico?Yo creo que aquí está el debate. La ciencia tiene sus vías.Y es verdad lo que dice Jan LeCun de que no creo que les haga ninguna gracia a los verdaderos científicos de ese artículo que no salga su nombre.Pero evidentemente la visión de los más era, bueno, esta empresa es mía y yo he pagado esta investigación.¿Qué pensáis vosotros de esto?Bueno, efectivamente esta empresa a mí personalmente no me parece bien. Creo que no es la manera de hacerlo.Me parece el comentario sarcástico que hace Jan LeCun que dice estoy seguro que los científicos que se esconden detrás de este nombre colectivo estarán súper contentos sobre esto, sobre que solamente aparezca Neuralink.Y dice solo espero que no mueran.Bitter, me sale agrio, pero no sé cómo lo diríamos en español.Saber fue agrio, el bitter, eso es lo único que sé.Es un comentario sarcástico con el que estoy bastante de acuerdo.Creo que demuestra una falta de elegancia que por otro lado no es nueva desde mi punto de vista en el comportamiento que tiene Elon Musk.Pero bueno, como tú dices, está en su derecho, es una empresa.Seguramente no hay más que una serie de normas, si quieres, éticas, a nivel legal, pues puede hacerlo.Sí, es muy su rollo de todas formas.O sea, al final Elon es muy de es mi balón y yo juego con mi balón solo.Ya está, tomado por saco.A ver, pero de todas formas lo que decías tú, Luno, está habiendo un shift bastante importante de cómo es la producción científica y iremos viendo cosas de este tipo.Es decir, hasta ahora la producción científica estaba muy basada en entornos académicos y un gran impulsor de todo esto era por la necesidad pública de los científicos.Esto en el fondo se está industrializando.La gran parte de la producción académica sucede en el mundo más industrial, por decirlo así.Las compañías están decidiendo publicar toda esta parte de la IA.Aquí tengo como dos pensamientos.Uno, que muy seguramente en algún punto se va a dejar de empezar a compartir tanto.Ahora se están publicando mucho los papers y tal, casi como un canal de marketing, toda esta parte de la IA.No sé si algún día esto se va a acabar porque ya no compense o no interese o no genere tanto ruido.Y en ese momento también va a haber que ver cómo evoluciona el posicionamiento de las grandes compañías en torno a todo esto.O si es tan relevante publicar para la gente o se va a quedar simplemente esto es parte de mi trabajo.Es la producción científica y a lo mejor ese conocimiento no vea la luz como está viendo a día de hoy.Eso desafía un poco cómo se ha desarrollado la ciencia hasta ahora, que se ha basado mucho en compartir.Si se incentivaba a publicar, que en muchos casos se convierte en eso que tú dices, publicar de cualquier manera.Porque esto es la manera de avanzar en mi profesión.Pero eso tiene un motivo de fondo, que es que la ciencia se construye compartiendo el conocimiento.Y ahí surgió otra conversación donde la parte más científica, como Charles Lecun, defendían que si no se comparte no es ciencia.Que eso es un debate también que hay abierto.Porque le decían, bueno, pues hay farmacéuticas que tienen investigación privada de la que no se conocen los resultados hasta pasados los años.Cuando ya tienen la patente o lo que sea y están protegidos.Y entonces él sostenía que eso no es hacer ciencia, que eso es debatible.Realmente eso lastra el avance.Puede haber un cambio en la manera de hacer estas cosas.Pero lo que sí que es verdad es que históricamente, y ya me refiero a la historia reciente, lo que ha pasado en inteligencia artificial.Lo que sí que es verdad es que no se hubiese llegado hasta el punto en el que estamos hoy si no hubiera sido por el sistema abierto y colaborativo del que ha hecho Gala.El deep learning de una manera bastante por encima en cuanto a la difusión de cómo se venía haciendo la ciencia antes.Porque la ciencia antes de los años 2000 estaba secuestrada por las grandes revistas.Y ya con la aparición de Arcai que abrazó mucho toda la revolución del deep learning.El hecho de publicar los preprints, incluso las cosas que no van a revista.Ponerla a disposición del máximo de gente posible, lo antes posible para que eso avanzase.Ha generado que hayamos hecho unos avances muy rápidos.Si todo esto ahora de repente se vuelve privativo y no se le da difusión.Y si tú quitas los nombres de la gente y lo haces de esta manera vas a desincentivar que se quiera publicar.¿Qué pasará? No lo sabemos. Por mucha pasta que tú le inyectes, si al final estás tú solo, ¿qué puede ocurrir?Yo conjeturo que habrá que hacer un rollback si llegamos a eso.De todas maneras este es un caso especial.Lo normal es que la empresa siga siendo parte de la afiliación de los investigadores.Y lo normal es encontrarse papers, que a lo mejor todos son investigadores de Google.Pero hay papers donde hay investigadores de Google junto con investigadores de Stanford e investigadores de Meta.No es raro esto. Se sigue manteniendo esto.A mí me llamó la atención la noticia porque se pelearon.Y son estas cosas de Twitter que te lo pasas bien unos días.Por lo menos me río.Y ya digo, como anécdota termino en bloque.En cualquier caso estabais comentando dos cosas que están desde luego muy relacionadas.Pero que para mí tienen su punto de separación.Y desde luego en el momento en el que publicas, porque estábamos diciendo si el hecho de no publicar,no hacer públicos los resultados o la manera de, como estabas diciendo, la industria farmacéutica era ciencia o no,aquí se ha publicado realmente. No he leído el artículo.Se ha publicado lo que se esconde son los nombres de la gente.No sé, me gustaría saber qué pasó con ese equipo.Si ese equipo sigue como tal, si la gente que estaba ahí ha seguido o se ha ido a otro sitio.En los tiempos al menos que corren ahora mismo, pues para este tipo de perfiles yo entiendo que es relativamente sencillo irte a otra impresiónde este estilo donde a lo mejor sí puedas publicar.Hay gente que igual solo va por la pasta.Hay gente que desde luego si estáis en parte por la pasta, pues no podría estar en la universidad.Pero desde luego va también por el reconocimiento o por el que si quieres sacar un doctorado y necesitas publicar.O sea, hay muchas motivaciones detrás.Entonces el hecho de ser tan, no sé, avaricioso si quieres con estas cosas,pues al final puede hacer que pierdas gente de talento.Yo creo que la gente, en cuanto a lo que decías de las motivaciones de los científicos,los que yo conozco, que se han movido a la industria o que han permanecido en la universidad o en el CSIC o donde sea pudiendo haberse movido,normalmente la motivación que tienen no es el dinero sino es poder hacer cosas.Si un investigador, porque es un trabajo muy vocacional, te consume muchísimoy es como que es una cosa de esas que no paras de pensar en él lo mismo en todo el día y tal,no es un trabajo normal al uso, pues normalmente les mueve el hecho de que les capaciten.Es decir, si me muevo a Google, porque es una universidad americana buena, no cobran tampoco mal, no se vive mal.Pero se van porque allí a su investigación, si tú tienes que trabajar haciendo modelos fundacionales,pues evidentemente quien te pone los recursos te va a habilitar a poder hacerlo.Pero claro, luego está el tema de que tú te vas construyendo un currículum y la ciencia funciona.Sí, funciona con los méritos que has hecho durante tu vida.Y si a ti te suprimen de las publicaciones, pues es como si esos años no hubieran existido aunque hayas conseguido algo.Entonces esa otra parte yo creo que también pesa, no tanto porque les motive que su nombre esté en ningún sitio,sino por cómo funciona el sistema.Pero ya te digo, en cuanto a lo que son las motivaciones, los científicos lo que quieren es que les dejen hacer.Y que les dejen hacer muchas veces, la mayor parte es que les financien.Si no consiguen financiación no hacen nada.Sí, a día de hoy.Y esto es carísimo además. Mucha agua. Muchos litros de agua y muchos megavatios.Pero si queréis pasamos ya de noticias.Esta vez queda mucho juego, nos ponemos aquí a hablar.Así que venga Frankie, te doy paso para que nos cuentes tu algo.Vale.Hace no mucho, no recuerdo cuántos programas, hablábamos de este concepto de One Man Billion Dollar Company,que era la idea de tener una empresa que fuera muy grande, que facturara un billón de dólares,gestionada por una sola persona.Y decíamos que, bueno, estábamos lejos de eso y tal.Seguimos estando lejos de eso.Pero encontraba una serie de posts en estos últimos días que hablaban como una persona, Aniket Hingain,que no sé ni dónde es, pero bueno, el artículo está escrito en inglés.Había conceptualizado crear una startup utilizando agentes.Una startup que hiciera todo, en principio parecía que hacía todo,luego realmente se encarga sobre todo del proceso más de negocio.No de esa parte que comentábamos de relación con proveedores, clientes, no sé qué.Bueno, algo hay también.No sería capaz de desempeñarse sola, pero sí era un paso en la dirección de lo que estábamos comentando.Entonces quería traer este ejemplo para darle una pequeña vuelta.Y en este caso concreto, él se apoyaba en crear una empresa de reclutamiento,donde todo el reclutamiento y toda esa comunicación con los candidatosy también con las empresas que lo utilizaran como servicio fuera completamente automático.Entonces te cuenta más o menos cómo organizaría en base a agentes,crear un agente para buscar ofertas de empleo en internet y seleccionar las más interesantes.Otro agente para analizar y para seleccionar a los candidatos para cada una de las ofertas.Otro que se encarga de enviar mensajes y la comunicación con los candidatos.Otro que también lo que hace es determinar cuál es la cultura de esas empresaspara ver cómo tienen que ser esos mensajes, más bien los formalismos,la manera formal en la que se expresan los mensajes para que reflejen la cultura de la empresa.Y luego tiene como un otro agente que orquesta todo por encima, que pone orden en todas estas acciones.Al final les digo, el resultado es básicamente un sistema de cara a las empresas que lo utilizan,lo que utilizarían este servicio sería un sistema que da igual cómo funcione en base a agentes,lo que van a hacer es pasarle una oferta redactada como la empresa quieray después de un tiempo va a devolverle una serie de candidatos que son adecuadosy de hecho no solamente candidatos que son adecuados, sino a los que llevan tienen que hacer una entrevistaporque toda la fase previa de establecer la comunicación y de ver que puede haber un interés,incluso a lo mejor hasta hablar de sueldo y todo, ya lo hace automáticamente el agente.Entonces, no sé, me parecía ya un proceso lo suficientemente complejo, aunque no sea lo que estábamos hablando,y bueno, además en estos artículos te da hasta código, ¿no?Cómo puedes codificar los agentes y todo el tema.Entonces, ya os digo, me parecía bastante interesante y bueno,un primer pasito hacia eso que estábamos comentando el otro día,aunque como digo, seguimos estando lejos, no sé cómo lo veis.La verdad que mola como ejemplo de aplicación de esta parte de los agentes, ¿no?Casi haces esa descomposición en roles de la tarea y se las imaginas cada rol a un agente,como pasaría en una compañía con personas, pero con agentes, es curioso.A mí como ejercicio, no sé si le funciona al hombre editar o si tendría que estar ganando.No hay un negocio detrás de esto.Es que yo veo aquí el tema Billion Dollar Company, ¿no? Establece una diferencia.Pero como ejercicio intelectual, simplemente, aunque tú no implementes agentes para todo,pero el ser capaz de hacer ese análisis de tu negocio, desde esa perspectiva, ¿no?Las tareas voy a intentar crear un modelo donde las tareas las resuelven sistemas inteligentesque funcionan de forma autónoma, ¿vale?Y luego a partir de ahí, yo creo que lo que obtienes de valor es precisamente ese modelado de tu negocio.Es decir, oye, ¿soy capaz de hacer esto?Luego, claro, evidentemente, a lo mejor dices, no, mira, esto suena muy bonito, pero no es muy viableponerte director financiero a un agente que lo que hace es que luego toma decisiones, ¿no?Pero el hecho de que hayas aislado las funciones de ese rol, lo hayas especificado de una manera,claro, pues tú para crear un agente vas a tener que aplicar una visión muy ingeniería, ¿no?Inputs, outputs, precondiciones, poscondiciones, declaración de las cosas y tal.Si eres capaz de hacer eso con tu negocio, y ya digo, aquí creo que se complejiza muchopor el tema de que pueda ser un negocio de entidad, ¿no?Porque un negocio chiquitito, un pequeño producto que haga una función y por el que la gente pueda pagarquizá pueda ser relativamente sencillo automatizar la mayor parte de lo que hace y existen cosas.Ahora que consigas desarrollarlo hasta esos volúmenes, yo creo que es que las cosas empiezan a teneruna complejidad intrínseca que luego hace muy difícil que tú, de manera explícita,definas cuáles son incluso los boundaries entre las responsabilidades de un agente y otro y tal, ¿no?Y eso se va haciendo, que a lo mejor quitas las personas de la ecuación y se vuelve todo mucho más simple, ¿no?Pero bueno.No, pero me parece muy interesante porque muchas veces entre departamentos o una empresaesos boundaries que comentas, esos límites no quedan claros y a veces uno va metiendo,pues como pasa en los terrenos, en las películas del oeste, que uno mueve la valla y se queda con ese terrenoy luego se terminan disparando a la cabeza, ¿no?Pero es verdad que hacer ese ejercicio de definir quién tiene que hacer qué,como si tuviéramos que automatizarlo de esa manera, creo que puede ser bastante interesante.Aquí en cualquier caso, por si se entiende mal, no se trata de sustituir a todo un equipo de recursos humanos,sino de permitirles que sobre todo se centren en la creación de las ofertasy las entrevistas y decisión final de contratación.Es decir, esto lo que hace es ampliar el rango de personas a entrevistar o descubrirte a lo mejor,al final lo que ocurre, ya lo sabéis, los reclutadores lo que tienen que hacer es meterse en LinkedIn o en donde sea,ver todos los candidatos, filtrarlos, leer mucho, lo hacen rápido.De hecho, hay estudios por ahí que dicen que en 8 segundos ya toma la decisión si pasa o no pasa.Y bueno, pues son trabajos que al final no se hacen con muchas ganas muchas veces.La gente es muy profesional, pero es igual, en el momento en el que es algo tan repetitivo,ya lo hemos comentado otras veces, no se hace igual de bien.Entonces, no automatiza todo el proceso, se queda con eso, que ya es bastante porque permite,lo que hemos dicho otras veces, que los humanos nos dediquemos a esa parte que es diferencial,que es las entrevistas con los candidatos, que es lo que nos interesa.Antes Lu ha hablado de un CFO, me parece muy buen ejemplo de un agente,porque funcionan como un agente, son esa entidad que está ahí y de repente el Excel me dice que…De repente un día.Mira, fíjate lo que ha dicho Frankie.Simplemente ser capaz de hacer una compartimentación entre lo que debe hacer un humanoy lo que no debería estar haciendo un humano.Esto ya no hablo ni de ella, yo esto lo digo muchas veces.No hemos sido capaces, teníamos la capacidad de automatizar un montón de cosas,desde que existen los ordenadores, del trabajo que hacemos en el día,y no hemos sido capaces de hacerlo con la mayor parte de las cosas.Y es porque no sabemos pensar así.Quizás este nuevo concepto, viejo nuevo concepto, que toda la gente no lo hemos inventado ahora,nos ayude en lo que es el análisis de un negocio a pensar de esta forma.¿Qué debería estar haciendo una persona? ¿Qué podría no estar haciendo?Y podría ser mucho más eficiente y además nos haría la vida mejor.Yo siempre pienso que si tu trabajo, el trabajo que tú haces, lo puede hacer una máquina,ese trabajo no debe ser demasiado motivante.Y existen un montón de trabajos que la gente está amarga porque han existido siemprey poco a poco se le va comiendo terreno a la automatización, si es que es así.Lo que sí que mola el enfoque este de los agentes, que lo comentábamos antes,pero que permite que un agente sea una persona o un agente inteligente.Entonces al final puedes ir construyendo un modelo donde cada vez puedes automatizar másporque habrá agentes que sean personas y que requieran pues eso.Se le manda al sistema una tarea a alguien de recursos humanos para que tenga una entrevista con la persona Xy a lo mejor a futuro puedes automatizarlo también.Entonces un buen enfoque casi para ir conceptualizando el cómo voy a ir automatizando las cosas.En línea a lo que decías, Lu, pues me obliga a pensar en todo el proceso, me obliga a definir los roles,me obliga ya a poner las comunicaciones entre ellos, que ya eso te ordena una empresa,incluso que solo sea personas, y luego te permite ir cambiando a agentes que son personaspor agentes que son automáticos, por decirlo así, y es muy interesante.Eso es, eso es. Pues nada, a ver qué nos cuenta este hombre cómo le va.A ver si llega el Billion.Pero bueno, está súper interesante.Venga, Korti.Cambiemos de tercio porque al final hay un estudio que ha sido publicado hace poco por la revista Cellque ha revelado que hay unos investigadores que han sido capaces de,gracias al análisis con inteligencia artificial de un montón de genomas,detectar prácticamente un millón, bueno son 800 y pico mil,pero el titular dice un millón, que suena muy guay, de posibles antibióticos.Al final lo que han hecho es detectar en un montón de organismos de los que teníamos en base de datos el genoma,detectar gracias a la inteligencia artificial partes del genoma que nos indican que tienen propiedades antimicrobianas,antiorganismos de este tipo.Lo cual, bueno, es muy prometedor, lo han estado haciendo en este artículo,pues se han llevado o se han analizado ya en el mundo real algunos de estos descubrimientospara ver un poco si realmente eran antibióticos o no,y se han encontrado que muchos de ellos sí que lo eran.Y entonces en un momento en el tiempo en el que tenemos esta resistencia a los antibióticos,que cada vez tenemos más superbacterias y demás,el encontrar nuevos enfoques que nos permitan encontrar otro tipo de organismos que nos ayuden con todo esto es muy interesante.Y también sigue muy en la línea, yo creo que en las últimas tertulias lo hemos ido comentando,de cómo la IA está empezando a ayudar a poder hacer ciencia a grandes volúmenes.Al final una de las grandes limitaciones que ha tenido la ciencia históricamente,sobre todo la ciencia que tiene que ver con nuestro entorno,ver estrellas, galaxias, microorganismos y demás,eso requería personas, muchas personas mirando cosas de forma continuadapara poder hacer un análisis y extraer conclusiones y ir muy uno a uno.Y ahora estamos empezando a tener una herramienta que nos permita hacer un enfoque masivoy aún así encontrar lo que queremos.Me parece muy interesante tanto el caso concreto como eso,cómo la IA está siendo la gran herramienta que permite avances masivos en ciencia.Voy a poner una noticia a compartir.Si podéis darle aquí el...Yo creo que es para que veamos la relevancia de todas estas cosas que estamos hablando,que puede parecer lo que sea.Es que recordar haber leído algo hacía tiempo, haber escuchado algo.Aquí es una noticia para los que estén escuchando el podcast directamentey no estén viendo la imagen, de National Geographic España de hace un par de años,que dice que en 2050 la resistencia a los antibióticos será responsable de 10 millones de muertes anuales.Y esto no es cualquier cosa.No es que la resistencia a un antibiótico vaya a hacer que nos dure más un catarro o cualquier cosa.Estamos hablando de temas bastante serios.Y yo creo que es importante lo que hemos comentado otras veces,el hacer ver que las aplicaciones de la IA no son solo temas frívolos, que lo son a veces,o temas completamente empresariales, sino que estamos hablando de vidas, de muchas además.Sí, muy bueno.Estos son cosas que yo creo que, desde el punto de vista científico o médico,son una preocupación, porque claro, como tienen que ver con cómo funciona el mecanismo evolutivo,en este caso de las bacterias, pues es muy difícil de controlar.Es muy difícil que le pongamos guardarraíles a la evolución.Tenemos una herramienta, un medicamento en este caso, que en su momento cambió el mundoy nos ha permitido ser todos los que somos, básicamente.Y eso ha empezado a revertirse.Y ahora, con la IA parece que hay otro shift.Pero claro, siempre en ese punto de coger ventaja en la guerra antibiótico contra bacterias.Yo me pregunto si no llegará antes otro tipo de solución.Porque están metiendo...Esta cosa va lento, porque hay ensayos clínicos de por medio y tal,pero se están metiendo muchos recursos.Desde Alfa Fold 2 se están metiendo muchos recursos.Alfa Beta ha hecho una empresa, se llama Isomorphic Labs,que ha puesto de CEO a Demis Hassabis,que trabaja con farmacéuticas para explotar las capacidades de estas IAs y tal.Y es verdad que son cosas que no se ven a corto.Es decir, no son lo mismo que las carreras de los ELM, de las que hablaremos ahora.Tengo un nuevo episodio, como siempre.Ah, este es el mejor y tal.No, esto no son cosas que se puedan ver a corto,porque tienen que pasar por una serie de barreras.Y no son problemas fáciles, vamos a decirlo así.Pero que en un momento dado, eso se va a ver.Se está metiendo mucha pasta y mucho recurso,porque a esto se le ve el potencial de tener un impacto bastante serio en lo que es nuestro futuro.Y yo conjeturo que en unos años,nos estamos acostumbrando al impacto de las novedades con la IA con mucha inmediatez.En este caso no será así.Pero lo que sí sabemos, con noticias como esta y las que le han precedido,es que se viene un cambio quizá de paradigmaen cuanto a cómo se combaten las infecciones y las enfermedades.No sabemos cómo, pero conjeturo que hacer predicciones para 2050va a ser como demasiado lejano.Entiendo que la predicción es, oye, hay una preocupación de que si no hacemos nada, esto va a pasar.Y quizá se quedase corto, porque en 2050 no sé cuál es la estimación de población mundial.El porcentaje de muertes anuales que se dice ahí es relativamente pequeño.Quizá sea incluso mayor el impacto que pueda tener si eso se complica más, más allá.Quiero decir que quizá no sea el peor escenario posible, incluso.Pensad, hay bastantes países donde tomar antibióticos no requiere ningún tipo de prescripción.Te vas a la farmacia, lo compras y tiras para adelante.Eso yo no entiendo, pero lo que me dicen los médicos es que no es sano,que no es bueno precisamente porque se crean estas, lo diré, me sale la palabra reacción.Resistencia, ¿no?Resistencia, sí, gracias.Estas resistencias que estábamos comentando.Entonces, bueno, es verdad, lo del año 2050 es lo de siempre.Aventuramos, ponemos una cifra, pero yo estoy de acuerdo contigo que es una preocupaciónque entiendo que es una preocupación bastante digital.Y creo que no vamos a ver cosas a muy corto plazo, cosas que tengamos en plan,oye, ya no existe tal enfermedad que nos preocupaba tanto.Eso no va a ser mañana.Pero yo creo que antes de 2050 el escenario médico va a haber cambiado muchísimo, muchísimo.Tú fíjate, este artículo, que es del 2022,no estaba teniendo en cuenta todo lo que ha ocurrido en los dos últimos años, que es mucho.Muchísimo.Estaría bien, a lo mejor, que la persona que lo escribió lo revisitara, ¿no?A lo mejor es investigar si él ha escrito más cosas al respecto.Sí, siempre se están calculando escenarios, ¿no?Pasa lo mismo con el tema del clima y tal, se van revisando.Y ya te digo, seguramente los medios no les dejen hacer una nota de prensa con el peor de todos.Una catástrofe absoluta.Residio colectivo.Pero entiendo que esto lo estarán revisitando y creo que va a ser bastante mejor.Espero.Gracias a estos avances.Yo tengo muchas ganas de que se vean cositas de gran impacto con todos estos temas médicos y biológicos.Así que muy guay, muy guay.Mira, yo voy a cambiar un poco de tercio, voy a hablar también de carreras.Porque, bueno, recientemente, ayer concretamente, Antropic anunció un nuevo modelo.Voy a decir modelo de lenguaje, también tiene imágenes, pero en este caso le podemos llamar modelo de lenguaje.Le podemos dar un poco más de éxito a Cloud 3.5 Sonnet.Ya sabéis que Cloud trabaja en tres familias, según el tamaño del modelo, que son Haiku, Sonnet y Opus.Cloud 3.5 Sonnet, copiando un poco el versioning que lleva Gemini, hace esta versión intermedia de un modelo intermedio, que es Sonnet, que le da mil vueltas al mastocho que tenían antes.Y se coloca con los benchmarks de industria, genéricos estos de LLM, como el mejor, el más mejor modelo ahora mismo por encima de GPT-4, Gemini 1.5 Pro, etc.Estos son benchmarks publicados, por supuesto, por Antropic.Totalmente objetivos.Exacto.Pero, ¿por qué mencionamos esto? Otra vez nos hablas del nuevo modelo, me aburro. Nuevo modelo que se coloca en cabeza.Muy bien, me parece muy bien.Bueno, decía Philip Smith, que es un ingeniero de IA muy célebre de Hugging Face, que os recomiendo que sigáis en sus redes, en LinkedIn y en Twitter, porque publica un contenido algo hardcoreta, pero accesible dentro de lo hardcoreta.Está muy bien lo que dice.Que hay un pequeño cambio con respecto a la estrategia que están siguiendo con la concepción de estos grandes modelos fundacionales.Hay una diferencia de estrategia, si lo queremos mirar, entre OpenAI, Google y Antropic, que son los últimos que han abierto así un poco la boca.Aquí podríamos hablar también de meta y tal, pero bueno.Hablando de grandes modelos que no te caben en el PC y que responden a todo, porque ahora hablábamos mucho de multimodalidad y con este último anuncio de OpenAI, de GPT-4O.Ya sabéis que esta O es de OVNI, no OVNI de los que vuelan, sino OVNI... Completadme la palabra, por favor.OVNISCIENTE, no.Que entiende todo.¿Cómo es la palabra? Me he quedado pillado.OVNI.Lo podemos así tirar.OVNIPOTENTE, OVNIPRESENTE...Es multimodal, pero es que no hay una que empiece por OVNI.OVNIPOTENTE, que ha dicho Frank, encajaría.OVNIPOTENTE, como un poco grandilocuente.Pero sí, esta O es de OVNIPOTENTE y el nombre se lo pondría el mismo Sam Almand.Pero claro, aquí lo que se remarca es la multimodalidad.En el caso de GPT-4O la estrategia es, oye, esto es un GPT-4 que no es mejor haciendo lo que hacía GPT-4 Turbo con el texto,pero es que mira que ya soporta audio, vídeo de manera nativa, imágenes, tal, y puede hacer muchas más cosas.Y esto es un poco el claim.En el caso de Google, también remarcar la multimodalidad nativa de Gemini y además las gigantescas ventanas de contexto.En este caso ya millones de tokens.Esto me parece un temazo también.Pero en el caso de Antropic, lo que se subraya es más la performance.A nivel de esto responde muy rápido.Puede hacer cosas que se le dan mal a otros modelos, como analizar datos, generar código, etc.Y bueno, también ahora con imágenes.Es decir, que no es lo más importante.La estrategia es, todo el tema del texto lo hemos mejorado, no como nuestra competencia.Lo hacemos mucho mejor.Los casos de uso que queríais estar explotando y que funcionaban regular, pues ya empiezan a funcionar mejor gracias a nuestro nuevo modelo.Y lo de las imágenes te lo meto aquí de propina, pero entienden que eso ya no es algo diferencial.Yo no sé si es que ya no se quieren meter ahí por no competir en esa liga con gente con la que a lo mejor no pueden competir.O porque no tuvieran algo diferencial.O porque realmente ellos ven que el futuro está más en estos casos de uso de texto.Yo me acuerdo, aquí voy a hablar de memoria y espero que no me saquen el clip.Pero una vez en Pensamiento Digital, cuando estuvimos hablando de los primeros modelos de difusión que salieron, de generación de imágenes.Estaba todo el mundo como loco.Esto es anterior a HGPT.HGPT ya existía.Estaba todo el mundo como loco.Y me acuerdo que nosotros estábamos hablando tú y yo, Frankie, de que el tema de las imágenes era muy pintón.Y que a todo el mundo le molaba mucho porque era como que te causaba una impresión.Pero que donde nosotros veíamos la potencia eran algo de lo que no se hablaba entonces.Tenemos que recuperar ese audio porque tengo unos profetas.Que era la generación de texto.Porque eso tenía unas aplicaciones increíbles.Y que lo de las imágenes, que mola mucho, pero que la aplicación era más difícil, no era tan transversal.Oye, quizás esté recuperando esta gente esa visión de que el texto es lo potente.Nos están haciendo caso, dices.Han invertido tanta pasta por nosotros porque escucharon el podcast.Les mandé yo el audio.Y he dejado de tonterías.Porque al final, oye, puede ser una estrategia.Es decir, lo que sí sabemos es que hacen cosas con texto que son impresionantes.Pero por otro lado también estamos con el tema de los guardarrailer, del no me fío y de alucinan y no sé cuántos.De que no puedo terminar de poner cosas en producción con total confianza porque no terminan de funcionar bien con texto.Entonces quizás sea una estrategia llevar esa performance.Porque claro, si vemos los movimientos últimos de OpenAI, por ejemplo, no han querido mejorar esto.Te lo han querido llevar a otro lado.Y yo creo que ahí hay una línea de discusión.No sé cómo lo veis.Estoy de acuerdo.Es una línea de especialización frente a una línea de dar un producto completo.Un producto que sea muy bueno en todo.Y esto es como quieren ser mejor en esa parte de texto.Solo lo que decías.Hay además un par de cositas que me parecen también muy interesantes de los tuits que nos pasaste.Básicamente dentro de lo que te pone en el propio tuit de Antropic.Lo primero, estamos hablando de Cloud 3.5 SONNET.Lo comparan en este benchmark con el Cloud 3 OPUS que lo puso SELTOCHO.Es decir, el 3.5 SONNET es, y si veis las cifras, considerablemente, por no decir mucho mejor en todos los aspectos,que el OPUS, que el 3 OPUS.Esto es un paso ya superinteresante.Pero además hablan de que lo hace el doble de rápido.Es decir, 3.5 SONNET es el doble de rápido que el 3 OPUS y además a un quinto del coste.Es decir, por cada dólar del OPUS ahora son 20 céntimos o centavos del SONNET.Entonces estamos hablando de muchas cosas.Es mejor, es más rápido, es más barato.Está más especializado, te resuelve problemas más complejos.Han metido algo de imágenes también ahí, al menos de analizarlas.Joder, yo creo que es un paso mucho más importante de lo que vemos otras veces.Total. Yo creo que he estado con esto, Inés.Luego volvemos.Pero es curioso porque también teníamos por aquí apuntar que Microsoft libera a Florence 2,que es un modelo de visión generalista capaz de hacer temas de OCR, de descripción.Es decir, es un modelo de visión generalista capaz de hacer temas de OCR, descripciones y demás.Pero con un poquito lo mismo, que es 100 veces más pequeño que modelos similares.En este caso con una licencia más open source.Es decir, más pensado para poder utilizarlo con un coste razonable.Tanto por la licencia que va a evitar historias como por el tema del tamaño.Seguramente hay una parte de la industria que lo que está buscando es esto.Modelos que sean más usables para resolver problemas a escalay que a nivel de costes, tiempos y capacidad de cómputo sean más razonables que otros modelos.Microsoft está tomando la delantera con los modelos pequeños.Ahora también hablaremos de Apple dentro de poco.Y ahí va a haber una guerra interesante.Y es verdad que al ser pequeños y muy pensados para la performance y tal,pues también tienes que renunciar un poco a la generalidad.Y abrazar la especialización en resolver problemas concretos.Y quizá OpenAI sigue fiel a su moto del ágil y tal.No lo sé.Y no se quieren meter en esta guerra.Pero bueno, puede haber mucha pasta ahí.Si tenemos este problema realmente de que no se pueden llevar los LLM a producción en muchos casos de uso,¿por qué no te puedes fiar?Si empiezan a solucionar estos problemas y tenemos unos benchmarks en los que nos podamos apoyarpara respaldar la confianza que se pueda tener en la resolución de una determinada tarea,ya sí que se les podrá delegar responsabilidad.Y ahí va a haber mucha pasta.Es decir, no sé si OpenAI quiere renunciar a eso.De hecho, ahí está grueso la pasta.Justo en Olin Podcast comentan algo parecido esta semana o la anterior,que al final en entornos B2B no se estaba siendo capaz de poner nada de esto en producción a gran escala.Al final, en el fondo, los LLMs estaban como muy orientados todos a mundo B2C,pues lo que ha hecho ChattyPT.Esto es para herramienta para usuario final, que si falla, falla y te fastidia,y tú sabrás, y es un juguetito.Pero claro, en aplicaciones Enterprise, grado Enterprise para solucionar grandes problemas,no se está pudiendo aplicar.Y ahí lo que dice Stulu.Los grandes niveles de pasta están ahí.Ahí está la chicha, sí.Y claro, le va a hacer OpenAI decir, no, nosotros no queremos esto.Ahora están diciendo que dejan de ser non-profit ya 100%.No sé yo.Tengo un par de cosas que comentar, pero están relacionadas con el tema de Apple,así que las voy a dejar para cuando vayamos a ese tema.Que no se me olvide, nota mental.Y mejor no entro aquí, porque si no me voy a perder.Luego te recuerdo que no se te olvide.Vale, pues vamos a tirar.Pero quería traer el tema del SONET por esta cuestión de cambio de estrategia,con respecto a los otros, más que por el hecho de que sea el nuevo mejor modelo,que es que ya, por lo que he dicho antes, me aburro.Sí, también quizá si intentas competir con los otros haciendo exactamente lo mismo,quizá llevan las de perder.Antrófica ha hecho un buen papel hasta ahora.Y tienen a Amazon detrás.Pero bueno, es verdad que te estás pegando.Tienes que dar algo diferencial.Yo creo que sí.Por eso mismo del tema del aburrimiento y de que hay un ronron de que estos benchmarkspara comparar grandes LLMs empiezan a no ser un buen sistema.Que hay que encontrar uno mejor.Pues quizá ya el colocarse el primero en la tabla no sea suficiente para convencer a nadie.Ni siquiera de que deje de pagarle los 20 pavos a Charly Vettel y te los pague a ti.Ahí está la guerra.Venga, vamos a seguir chicos, que si no, no terminamos nunca.Bueno, como siempre tiene que salir Elon Musk aquí en un cerro de noticias.Así que volvemos a traerle, nos da mucho juego.En este caso concreto, hablamos de una noticia que habla de una demandaque había interpuesto Elon contra OpenAI hace escasamente 4 meses, en febrero de 2024.Y donde básicamente lo que hacía era denunciar a OpenAI argumentando queElon había ayudado a fundarla en el año 2015, pero que OpenAI había abandonadolo que era su misión original de desarrollar una inteligencia artificial que fuera segura,que fuera beneficiosa para toda la humanidad, con el que se habían enfocadoen lo que eran los puros beneficios financieros.Ante eso, ahí OpenAI lo que hizo fue responder diciendo que bueno, que vale,pero que Musk había apoyado previamente esa idea de crear una estructura con ánimo de lucroy que incluso parece ser, que no recordaba, que había sugerido una fusión con Tesla,con OpenAI y con Tesla, y que coño venía ahora a echar nada en cara,que ahora había formado parte de todo ese proceso.Pero bueno, Elon siguió para adelante, tampoco comentó nada de OpenAI,porque lo vamos a comentar después, perdón, de Apple, su relación con OpenAI,porque algo vamos a comentar después, pero bueno, parece que formaba parte de todo estoy al final lo que ha ocurrido es que hace muy poquitos días,Elon Musk ha retirado de forma sorpresiva esta demanda que decíamos,que estábamos comentando, sin dar más razón del por qué la retira.Sin embargo, ha hecho una retirada de la demanda, lo que llaman sin prejuicio,evidentemente no entiendo esto, pero es lo que he leído,que parece ser que le permite a Elon reactivar el caso,si ve en el futuro que tiene sentido reactivarlo.Es decir, aquí suena no sé a qué, no sé si está teniendo algún tipo de negociación,lo quiere parar porque está negociando algo y si sale adelante lo mantiene paradoy si no sale adelante vuelve para allá.Si es algún tipo de reacción ante precisamente esta alianza entre OpenAI y Apple,que comentaremos después para hablarlo entendido o no sé,como nunca sabe las motivaciones personales que tiene Elon detrás,pues entonces no sabes qué puede haber, sabes que algo hay, eso está claro.No creo que lo haya hecho precisamente por motivos altruistas, porque se ha quedado sin pasta.Difícil saber el por qué, pero aquí hemos venido a jugar y no lo vamos a inventar.Mis hipótesis, a lo que más me huele esto es alargar la vida mediática de este temaporque al final si el juicio tiene una resolución presumiblemente desfavorable para Elon Musk,ese tema se acaba y hasta luego.Yo no sabía que había en la justicia esta funcionalidad de archivar para más adelante,pero si la hay, pues puedes hacer uso de ella.El botón de pausa, lo tenemos en todas partes.El botón de pausa ya saca una noticia automáticamente.Le das al botón de pausa y sale esta noticia.Luego le das al botón de play y sale otra.Tienes a cuánto tiempo.Desde luego, lo que yo sé seguro, o no lo sé, pero entiendo que sí,es que no se ha reconciliado con nadie porque ha estado tirando bid de Applepor llamar a la API de OpenAI y cosas por el estilo.Es que tiene muchos intereses por todos los lados.Se volvió a hablar estas semanas de cuando quiso ser el CEO de Apple,que intentó vender Tesla a Apple a cambio de ser su CEO.El problema es que este hombre quiere muchas cosas.Incluso a veces tiene razón y algunas veces segura que tiene sus motivos,pero como luego tiene tanto interés económico en todos los lados,es complicado de trazar.Sí.Sus caminos son inescrutables.Muchas de estas cosas se quedan en nada.Pero claro, yo esto lo dije con lo de Twitter.Entonces yo me tengo que callar la boca.Todo el mundo cuando lo de Twitter, antes de comprar, cuando hizo la ofertay empezó a liarla con el consejo y todo el rollo,yo decía lo mismo.Este lo que quiere es hacer ruido, luego dirá que no, luego no sé cuánto.O sea que yo ya me callo la boca.posibilidades, ¿no? O se comentan, por un lado, en muchos lados, todo esto y algunacosa más, ¿no? No sé si lo vamos a comentar, ¿no? Pero también el hecho de queVenga, haya sacado la nueva compañía, ¿cómo se llamaba el...?Safe Super Intelligence.Safe Super Intelligence. Todo esto hace como que una parte, diga, quedel mundo especule que OpenAI ha llegado a conseguir o estar muy cerca de esainteligencia artificial general y que haya todo este revuelo, ¿no? O sea, haymucho movimiento en este lado. Ahora, tenemos el otro extremo que puede serque la gente esté, bueno, con esta tendencia de ponernos catastrofistas muyantes de tiempo, que eso sería un poco la posición de Yan Lecun, que estemos muylejos de todo esto y que aquí simplemente se empajan mentales yestemos todos perdiendo el tiempo en todo esto. No sé, ¿qué opináis vosotros?Es el argumento de una película distópica, básicamente, ¿no? O de un libro.Esto de aquí, donde empezamos así y no sé cómo terminamos, ¿no? Y podríamosincluso ponernos muy paranoicos y pensar que sí, que a lo mejor la salida deSuscriber aquí está también orquestada por el propio OpenAI precisamente por lomismo. Para darse publicidad, igual que hablamos de él, no lo sé. Hay tantas cosas poratrás, tantas cuñadeces que podemos decir, que en el fondo no tengo ni idea.Ahora, habiendo tantas noticias al respecto, yo empiezo a, no sé sipreocuparme, pero sí a mosquearme un poco de qué es lo que puede pasar. Yo lo veocomo que tiene que haber alguna situación ahí que no sea de buengusto. No digo una agi, pero puede haber algo intermedio que pueda serpeligroso. Tiendo a pensar en eso desde el desconocimiento total.Yo, fíjate, por el signo de los tiempos, creo que estos posicionamientos soninevitables. Es decir, eso es lo que se lleva hoy en día con todo. Estoy en unbando o en el otro. Creo que las compañías tienen que lidiar con empleados quepuedan estar en un bando o en el otro. Y luego ya la compañía decidirá sitiene una política dogmática con esto, o de pensamiento único, o no tolera.Que no sé si es el caso de este caso del empleado de PNI, y alineado con lassalidas de Ilia, del equipo de Super Intelligence,de Super Alignment, y que ahora haga esta compañía deencontrar la super inteligencia segura y tal. Esa es su misión. No sé si enOpenAI pueda ser que sólo se permita un tipo de pensamiento, pero me huelo que enuna compañía como Google, que tiene tantísima gente, pues estén conviviendoesas dos tendencias, no en un plan hardcore de, oye, si piensas lo contrario yo tete pego fuego. Con otras cosas más políticas, vamos a llamarle políticas,porque esto también es política, pero otras cosas más políticas sí que es másnormal. En una compañía no se toleran determinado tipo de, más en Silicon Valley,no se toleran determinado tipo de líneas de pensamiento. ¿Se puedellegar a convertir esto en algo así? Yo creo que en una compañía no se tolereque tú seas del bando de los que piensan que la IA es peligrosa.No he visto, por ejemplo, movimiento, siendo otra compañía que tiene un huevo deempleados y un departamento de IA gigantesco, no he visto ningún movimientode este tipo en meta, cuando su jefe de Inteligencia Artificial tiene unapostura clarísima. Eso me lleva a pensar que allí son mástolerantes con la divergencia, pero creo que es inevitable tener gente que seposicione en un sitio y en el otro, y luego ya como compañía tú decides, oye, me los cargo.Que puede ser lo que haya pasado en OpenAI, no lo sé, con todas estas cosas.Sí, aquí hemos hablado de gente de primerísimo nivel que está en un lado y enel otro. Lo más normal es que dentro de una empresa estén también repartidos, no sé porcentaje.Eso ha existido siempre y se ha intensificado con el tema de los LLM.Se ha intensificado. Andrew Ng, por ejemplo, ya decía en los años 2016 o 2015que él discutía mucho con gente como Mass Techmark, incluso con Elon Musk y tal,de si podía llegar la AGI en el periodo de nuestras vidas y que él decía que no,que mínimo 300 años y que los otros decían que 30. Luego pues esto se ha intensificadomucho con los LLM, que impresionan tanto y tal,y esos plazos se acortan, pero siguen existiendo esos dos bandos que existíanya de antes. Pero claro, si ya son temas más políticos y ocurren estas cosasdentro de las compañías, pues es una cosa más que las compañías tienen que gestionar.Sí, yo creo que el problema, no el problema, pero lo que ha cambiado en los tiempos,o sea, hace 10, 15, 20 años cuando había estas discusiones, se genera una discusión.Pero no sé la percepción que tenéis, pero la verdad que, al menos la mía,es que en los últimos tiempos las discusiones se han politizado tanto,porque al final se toman posturas ya muy extremas, políticas conectadas con muchas cosas,que es muy seguramente lo que pasa es que dentro de las compañías no hay discusiones,hay bandos, como en la sociedad. No hay una discusión abierta que nos lleve a encontrarun punto de equilibrio hacia donde tenemos que ir como grupo, sino que es más un,si vamos para acá, estás contra mí y demás. Que esto, a ver, ha llevado a movimientos,por ejemplo, en Google con todo esto del wokeismo en sus sillas, que ha habido mucha movida ahí,pero que también en el fondo es política, es una imposición de determinados tipos depensamientos que tienen un impacto en el negocio. Yo no entro aquí lo que está bien o lo que estámal, pero es verdad que al final no existe una discusión por lo general abierta, existe un temade nos ponemos en dos posiciones muy distintas y hay una guerra de poder. Está costando a lasociedad tener este tipo de discusión. De hecho, deberíamos estar teniendo como sociedad unadiscusión más abierta de si esto es un riesgo o no. Y no solo debería ser una discusión de,en este tipo de compañías, o sea, los gobiernos, los ciudadanos o al menos los que puedan,los que podamos a lo mejor empezar a entender todo esto, deberíamos tener opiniones,compartirlas y generar esa reflexión que llevará años en tener una conclusión. Y no que vengaalguien a imponernos si como sociedad debemos hacer A, B, C o D, porque nos lo van a imponer.Al final van a ser decisiones de estas empresas. Eso es, pero es muy difícil.Perdón, Alu, dale. No, decía que es muy difícil porque quien tiene al sartén por el mango son ellos.Es decir, si, por ejemplo, tuvieran competencia en Europa, podríamos establecer, bueno, pues unacierta, yo qué sé, toma hidaca con estas cosas, ¿no? O incluso gobiernos que sean capaces dehacer estos modelos y tal, ¿no? Pero es que nadie más es capaz de estar en esa carrera,solo son ellos. Entonces, al final, pues tienen el sartén por el mango,son los que ponen la regla del juego. Sí, es normal, las ponen, pero ni siquiera estáhabiendo, yo lo que veo es que ni siquiera hay la discusión fuera. Otra cosa es quehaya la discusión, pienses X y al final se haga lo que haga la gente que te ha capacidad. Yo creoque el problema es que ni siquiera está habiendo una discusión más allá de un entorno súper cerrado,donde la gente que discute tiene información súper privilegiada, porque lo que está pasandoen OpenAI ni siquiera sabemos, nosotros que podemos tener nuestra opinión, ni siquiera sabemos por quéestá pasando. Y a mí me parece un peligro para la sociedad, porque la inteligencia artificial seguro,seguro, seguro va a tener un impacto de la hostia en menos de 50 años. Lo que pasa es que potencialmente,no probablemente, pero potencialmente, tiene un impacto a destruir la humanidad. Estamoshablando de algo como potencialmente como la bomba atómica, o potencialmente, podría ser que no,pero no está habiendo esa discusión, que si hubo una discusión civil, al menos en su época,con lo de la energía nuclear y que siga habiéndola. Seguimos a día de hoy teniendo posiciones sobresi energía nuclear, si no, o lo que sea, muchos años después. Yo creo que con esto no sé si esque falta tiempo, pero tiene que pasar. Lo comentaba antes, hablaba del signo de lostiempos. Estamos un poco, a lo mejor, también, quizá, cerrando el círculo. Hemos empezadohablando de empresas privadas que hacían investigación y todo se ponía debajo de unnombre. Parece que hay una cierta disciplina de empresa. Igual si nos llevamos a lo que hahecho Lude, el signo de los tiempos. Estamos hablando también, incluso, de polarización. Oestás conmigo, o estás contra mí, o me haces caso, o eres mi enemigo, por decirlo así. Y esto la sociedadlo vemos en empresas, lo vemos en los gobiernos, lo vemos en los parlamentos. Hay disciplinas férreasde partido y nadie puede decir lo contrario, porque entonces ya directamente hasta te echan delpropio partido y pasa en todas partes. Y cuando se supone que tenemos que tener, que tenemos, lamayor libertad de expresión y todos los temas, vivimos una cultura de la cancelación, dondetambién, en cuanto no dices lo que la sociedad espera que digas, o cierta parte de la sociedadespera que digas, directamente van contra ti, te silencian de alguna forma. Creo que vivimos unmomento de extremos donde todo esto se está reflejando absolutamente a todos los niveles. Ycuando hay intereses de empresa por detrás de todo esto, sea o para proteger patentes o resultados,o para proteger que no se ha llegado a ellos, o para vete a saber qué problema haya podido suceder,pues al final se toman decisiones que son bastante drásticas y, bueno, de momento parece que lagente no desaparece, como ha ocurrido en alguna ocasión en China, por ejemplo, ¿no? Pero vete asaber cómo terminaremos. Por eso hablaba antes de distopía, cuando ha sacado la noticia.Yo creo que esto les tiene que venir a quien se comporte así, ¿no? A quien quiera, o sea, yo piensosobre este tema, ¿no? Esto ya es un pensamiento muy personal. Elon Musk, yo que sé, por hablar deextremos, ¿no? De gente que piensa así muy fuertemente, se posiciona muy fuertemente, es muyopinionada. La empresa será suya, pero la gente que está ahí no es suya, ¿no? Entonces, al final,¿cómo gestionas tu empresa? Que al final es un montón de gente. Tiene mucho que ver con lo queobtienes en el medio o largo plazo. Yo creo que si empiezan a aplicar en sitios como PNI a estetipo de políticas absolutistas, ¿no? Con la línea de pensamiento y tal, eso les va a venir de vueltaseguro. Y ya como último pensamiento que yo tengo sobre esta noticia, ¿sabéis quién nos va a salvar?¿En qué terminará esto? Bueno, pues seguiremos aquí con las palomitas, pero bueno, Elon siempre,Elon siempre en nuestro programa. Vamos a seguir con palomitas, si queréis, porque se ha ido desvelandoinformación de movimientos de seguridad dentro de OpenAI, pero que están, a ver, si lo vesíntimamente relacionado seguramente con todo el culebrón que ha habido habiendo con OpenAI a lolargo de los últimos meses. Por un lado tenemos un artículo Reuters que informa que empleadosactuales y anteriores de OpenAI y de Google DeepMind han expresado su preocupación sobreriesgos asociados con la inteligencia artificial y que dicen que la carrera por la supremacía enla inteligencia artificial podría llevar a decisiones apresuradas y potencialmente peligrosas.Seguimos con este rollo, las máquinas nos nos matan, tan extendido. En otra noticia,Transformers News, parece ser que un empleado de OpenAI afirmó que fue despedido por plantearpreocupaciones de seguridad al Consejo de Administración, que ya sería como un, bueno,un paso más, ¿no? Hay como cierta primera noticia, un cierto tufillo de que está pasando algo,si de ser verdad, pues bueno, que esto estaría diciendo que la empresa está evitando hacer frentea cosas que están viéndose dentro y voces de dentro de la compañía que están levantando riesgosde seguridad concretos. Y el New York Times acaba también un artículo que decía que el ambiente detrabajo de OpenAI, parece ser que hay empleados que sienten que la organización está participandoen una carrera imprudente por la dominación en el campo de la inteligencia artificial y estosdenunciantes dentro de la empresa han advertido que esta búsqueda agresiva de liderazgo podríaestar comprometiendo la seguridad y la ética, sugiriendo que las decisiones se están tomandosin la debida consideración de riesgos a largo plazo, muy alineado todo esto también con lasalida del equipo de Superalignment hace poco. Entonces, para mí, yo leyendo todo esto, comodos grandes...
Leer más

Escúchalo ahora en

Últimas publicaciones del blog

¿Qué son las inserciones y cómo utilizarlas en tu podcast?

Con las inserciones de audio puedes actualizar y promocionar tus contenidos o ...Leer más

Facturar más de 11.000€ en 5 días con un audiocurso – Oriol Roda

Cuando descubrimos a Oriol Roda hace unos meses, alucinamos con los 60.000 sus...Leer más

¿Qué es una red de podcasts y qué ventajas ofrece?

Unirte a una red de podcasts puede beneficiar tus contenidos de diferentes man...Leer más

WAV vs MP3: ¿Cuál es la diferencia y cuál es mejor para tu podcast?

Conocer la diferencia entre los formatos WAV y MP3 es crucial debido al impact...Leer más

Beneficios de crear un podcast si tienes una ONG

¿Tienes una ONG? Estas son tres maneras en las que un podcast puede fortalecer...Leer más

Combinando venta de servicios y productos digitales para llegar a las 6 cifras anuales – Alex Llull

Alex Llull empezó estudiando comunicación audiovisual porque le gustaba comuni...Leer más