Avatar

#31 - Los trastornos mentales de las Inteligencias Artificiales con Raúl Arrabales

La Tertul-IA: Inteligencia Artificial y más

Presentado por

La TertulIA

Hablamos sobre "Los trastornos mentales de las Inteligencias Artificiales" con Raúl Arrabales, autor de este interesante libro que navega el estado actual de la Inteligencia Artificial desde sus problemillas, errores, pifias y meteduras de pata.

El libro de Raúl (súper recomendable): https://amzn.to/3Awm5RF

El perfil de LinkedIn de Raúl: https://www.linkedin.com/in/raularrabales/

Suscríbete a la newsletter de la Tertul-IA y nuestro podcast en https://tertulia.mumbler.io/

Puedes escucharnos cada semana en https://tertulia.mumbler.io/p/la-tertulia

Transcripción

¿Qué tal? Damos la bienvenida a nuestra audiencia en una nueva tertulia, hoy una tertulia especial porque tenemos un invitado y este va a ser el tema del día, una entrevista con nuestro querido amigo Raúl Arrabales que nos acompaña hoy.¿Qué tal Raúl? ¿Cómo estás?¿Qué tal? Pues encantado de estar entre amigos.Raúl, para quien no le conozca, es doctor en ciencias de la computación e inteligencia artificial y también desarrolla su carrera en el ámbito de la psicología clínica.Corrígeme aquí en la intro si yo me equivoco porque tu currículum es un poco particular.A mí me interesa mucho y el libro va de esto, ahora hablaremos sobre el tema.Este ámbito híbrido entre inteligencia artificial y psicología está muy interesante y que se describe muy bien en el libro.Este perfil particular de Raúl yo creo que hoy nos va a aportar mucho en temas sobre los que seguramente no habíamos pensado o no hemos pensado lo suficiente.Voy a saludar también a mis compañeros, Frank y Corti, ¿cómo estáis? ¿Qué tal?Muy bien, con muchas ganas de conocer este combo de psicología e inteligencia artificial, da para mucho, ¿eh? Se habla para novela.De momento es nada para un libro, no una novela, pero para un buen libro. Aquí doscientas páginas casi, hay mucho que contar ahí.Un libro que no lo he dicho, vamos a hablar hoy de su libro, no era una forma de hablar, hay un libro, ¿vale?Que es este, Los trastornos mentales de la inteligencia artificial, libro genial de Raúl, que nos da para tertulia.Así que nada, ¿qué tal Raúl? Si quieres hacer una introducción personal, algo que me haya faltado, lo que tú quieras.Nada, yo creo que simplemente esa parte que comentabas, que hay gente, a mí me llama la atención porque hay veces que la gente le sorprende, ¿no?Dice, ah, pero si tú eres de informática, ¿no? ¿Cómo es que has estudiado psicología? Mi caso fue primero la parte de técnica de inteligencia artificial y luego la parte de psicología.Y entonces simplemente hay que resaltar que, y en el libro lo vamos a ver luego, que realmente son dos áreas muy relacionadas, más de lo que la gente cree.Y efectivamente hay temas que todos conocemos porque todos, como la broma que se hace en psicología siempre es, todos llevamos a un psicólogo dentro.Yo no sé si todos tenemos un informático dentro, pero un psicólogo seguro.Un psicólogo y un entrenador de fútbol. Es verdad que para los que ya tenemos una edad, cuando nosotros estudiamos, al menos la inteligencia artificial se percibía como hija de las disciplinas informática y psicología.Eso en las universidades, en las carreras en las que había una asignatura que se llamaba explícitamente inteligencia artificial, era solo en estas dos.Ahora la IA se la apropian los matemáticos porque se ha convertido más en estadística y este tipo de cosas, ¿no?Pero en nuestra época esto era computación, pero también psicología.Y tú podías estudiar inteligencia artificial en la carrera de psicología. Era algo que existía.Entonces, bueno, no es algo carente de sentido que hablemos de estas dos cosas juntas, ¿no?Aparte del concepto de inteligencia sobre el que ahora te preguntaremos, que está muy ligado al estudio psicológico.En tu libro, que tiene un título muy peculiar, los trastornos mentales de la inteligencia artificial, trata un poco de esto, ¿no?De responder a esta pregunta de si pueden las inteligencias artificiales sufrir de afecciones psicológicas como lo hacemos los humanos.Y en qué contexto esto es algo que debamos, no sé si medir o tomar en consideración.¿Cómo te surge la idea de hablar sobre esto?Sí, yo creo, mira, mi idea principal, y cada vez dudo más de que el título del libro sea apropiado.Pero bueno, poner un título sabéis que siempre es muy complicado.Mi idea original era hacer una obra de divulgación sobre la inteligencia artificial y que fuera para cualquier persona.O sea, que no necesitaras un conocimiento previo o técnico de ningún tipo.Y precisamente por esto que decía antes, que todo el mundo sabe algo de psicología popular, parece apropiado enfocarlo desde ahí.Pero ¿qué pasa? Que yo quería hacerlo también un poco divertido, ameno, que fuera útil.Entonces, esa parte de que fuera divertido, más el tema de que hay una, sabéis que hay burbuja, cierta burbuja, cierto auge.Bueno, es auge, es popularidad, pero también sabéis que hay mucho sensacionalismo, ¿verdad?A veces cuando se habla de inteligencia artificial, en entornos que no son técnicos o que no son científicos técnicos,pues es verdad que en los medios se suele o se tiende a exagerar, quizás en ambos sentidos, ¿no?Como algo peligroso, malo o como algo extraordinario más de lo que realmente es.Entonces yo quería hacer esa tarea de desmitificar y la manera que me parecía muy útil es hablar de las pedradas en la cabeza.Porque, como dice un amigo mío, porque igual que los humanos, pues todos tienen o tenemos nuestra pedrada, algún problemilla siempre hay psicológico, ¿no?Pues el mirar a la inteligencia artificial, no desde los casos de éxito, que es lo que una y otra vez y una y otra vez nos repiten los titulares.Por ejemplo, una inteligencia artificial que funciona mejor detectando el cáncer de mama que los radiólogos. Es un ejemplo que creo que pongo en el libro.Pues en vez de ver esos casos de éxito que ya los tenemos muy vistos, pues mi idea era ver los casos de fracaso.Y un caso de fracaso en el área de inteligencia artificial es una mente artificial que no funciona bien y eso de toda la vida se llama trastorno mental.Totalmente. Y para poder analizar esto propones un framework que está basado en el que se usa para diagnosticar.Claro, esto es un poco aprovecharme de los psiquiatras. En el mundo de la psicología clínica y de la psiquiatría, pues si sabéis que en medicina hay una clasificación internacional de enfermedades.Para cualquier patología, pues los médicos usan esa clasificación. Y en el ámbito de la salud mental, pues es la APA, la Asociación Americana de Psiquiatría,la que cada ciertos años publica lo que llaman la vibria de la psiquiatría, que es el DSM, que es el Manual Estadístico de Trastornos Mentales.El DSM va actualmente, tiene muchos años y va por la versión DSM-5-TR revisada. Entonces a mí se me ocurrió, es que necesitamos un DSM.El DSM es donde se describe, pues imaginaos, el trastorno bipolar, los trastornos de la conducta alimentaria, los trastornos de personalidad, pues eso es de lo que hablan los psiquiatras.Entonces yo decía, bueno si tenemos que hablar de los trastornos mentales de las máquinas, pues necesitamos el DSM de las máquinas.Claro, pero el DSM original yo no lo podía usar porque está obviamente diseñado para humanos.Y aquí es donde aparece el chiflada 5, este, que ya sinceramente no recuerdo las siglas que significa.Pero lo dices porque es un retroacrónimo.Eso es, totalmente. Es fácil de recordar.Hay que decir que Raúl es capaz de introducir el humor dentro de un tema tan serio de una manera muy hábil y eso hace la lectura del libro bastante amena.Esto de chiflada es un ejemplo en nombre del framework, pero luego tú miras las tripas y es una cosa muy interesante.¿Cuáles son las patologías más relevantes que pueden sufrir las máquinas?Aquí al principio también tuve la duda porque una idea inicial que tuve sería, oye pues hacemos el paralelo tal cual.Es decir, toda patología que aparezca en los humanos e intentamos ver si la identificamos en una máquina.Pero en realidad hay algunas que no tienen sentido porque están muy relacionadas.Pongo un ejemplo y esto hay que tomarlo en torno de humor también.En el DSM seguramente, no me lo sé de memoria, pero aparece muchos trastornos de la conducta sexual, por ejemplo.Y ese me costaba más porque hoy en día ChagGPT tampoco tiene trastornos sexuales grandes o importantes.Seguro que tiene algunos si nos ponemos a mirar.Pero bueno, entonces en vez de hacer ese paralelo hice un poco al revés.Oye, qué capacidades mentales, de esas que componen la inteligencia, son las que las máquinas hemos desarrollado más al día de hoy.El ejemplo típico que todo el mundo conoce que trabaja en este área es el área de aprendizaje automático.Si llevamos muchos años haciendo máquinas que aprenden, es decir, algoritmos de aprendizaje automático,cabe pensar que seguro que hay trastornos equivalentes o parecidos o se puede establecer analogía entre los trastornos del aprendizaje en los humanosy qué trastornos de aprendizaje puede haber en la inteligencia artificial y en el área de aprendizaje automático.Entonces fui haciendo así, viendo dónde hay coincidencia.Entonces digamos que es un subconjunto en realidad porque el DSM es mucho más grande.Y dices que te has parado en el aprendizaje también quizá porque este tipo de trastornos se los hemos podido transmitir nosotros.Esa es otra reflexión que luego revisando el libro me di cuenta que hago mucho y es una idea principal del libro.Tenemos muchas veces miedo de que la inteligencia artificial puede ser un problema.Ya sabéis que si nos puede quitar el trabajo, que si se puede hacer mala y querer conquistar el mundo, cosas así.Pero en realidad el mayor riesgo son los padres.Y vuelvo a hacer la analogía.Cuando digo los padres o las madres, los papás y las mamás de la IA, ¿quiénes son?Pues nosotros, los que están desarrollando esos sistemas.Las máquinas podrán tener el nivel de autonomía que queramos, pero esa autonomía no es aleatoria o no funciona de una forma totalmente inesperada.Esa autonomía va a funcionar sobre unas reglas que ha sido o bien aprendida o bien derivada de cómo se ha creado.¿Por parte de quién? Pues de papá y mamá.Es verdad que ese aprendizaje, sabéis que en la naturaleza siempre se habla, siempre ha habido un gran debate en biología, en psicología, en medicina.Oye, ¿qué importa más? ¿La genética o el desarrollo?Lo que en inglés dicen lo de nature versus nurture. ¿La crianza o lo que viene de fábrica?Y entonces en el libro también intento reflejar toda esa parte porque aunque no estamos hablando de seres biológicos,estamos hablando del dominio del silicio, es inteligencia artificial.Pero de alguna forma sí es nuestra descendencia a nivel cognitivo y a nivel de que es nuestra creación.O sea, no viene de la nada, no viene de otro planeta. La inteligencia artificial viene de nosotros.Y eso implica que cosas que el niño o la niña hagan mal, también hay que buscar un poco de culpa en los padres.Total. Aparte cuando hablamos de inteligencia artificial, estamos hablando ya de que utilizamos modelos, sistemas y demás que pueden,según los diseñes y se preparen, ya pueden contener sesgos o pueden contener historias. Están los datos de origen, que muchas veces también,HGPT y demás, que al final son todos estos modelos que aprenden de datos de internet.Algo sexual tienen que tener si han aprendido de internet o están muy bien filtrados, sino algo habrá.Y luego cada vez más estamos viendo enfoques que generan datos sintéticos para poder realizar más aprendizaje y demás.Por lo tanto hay muchos sitios donde nosotros, como padres de la invención, le podemos transferir todo este tipo de trastornos.Sí, está claro que ya estamos muy familiarizados con los sesgos que hay en los conjuntos de datos de entrenamiento.Y eso es algo que siempre ha pasado en el ámbito del aprendizaje automático y de ahí vienen muchos problemas.¿Qué ocurre? Que hay más sesgos de los cuales quizás no somos tan conscientes.Porque el sesgo de datos ya está muy asimilado y ya todo el mundo sabe que hay un riesgo en que los datos estén desbalanceados,que tengan algún tipo de injusticia en ellos y eso se transfiere a cómo aprende el sistema.Pero claro, si vamos a un nivel más profundo, el propio diseño de una inteligencia artificial, hay tantas decisiones.Y eso es lo que la gente quizás no es consciente.Y también al escribir el libro quería no solo hacer una introducción a qué es la inteligencia artificial, sino que se entienda un poco más.Claro, no es un libro técnico, no se habla de cómo se construye, pero sí de que hay muchas decisiones que tomar en la construcción de un sistema artificial.De igual forma, y el paralelismo vuelve a ser el mismo, en la naturaleza hemos aparecido nuestra especie, los humanos,y para llegar a un ser humano no sabemos todavía cómo funciona del todo, pero sabemos que se han tomado muchas decisiones.Es decir, hay muchos caminos evolutivos que se han abandonado y otros caminos evolutivos que se han adoptado.Pues billones y billones o trillones de decisiones a lo largo del tiempo.Claro, cuando nosotros construimos una inteligencia artificial o cualquier proyecto que estamos nosotros en el día a día,cada reunión que tú tienes, cada reunión que tengo yo con un cliente, oye, ¿y esto cómo lo hacemos?O el consultor de turno decide, pues esto, métele ahí un 8 o ponle aquí un random que no sabemos cómo esto va.Ese tipo de cosas son decisiones que van a ir a tener un impacto en la conducta del sistema artificial.Entonces, no hay sesgo solo por los datos, hay mucho sesgo de cómo funciona el sistema,de las decisiones que se han tomado durante su diseño y su construcción.Y no somos muchas veces conscientes.La verdad que tengo que decirte que el libro se lee súper rápido, te lo bebes y está muy bien contado.Y bueno, hay muchas cosas de las que hablar.Me gusta esto que estás comentando de cómo en el fondo estás desmitificando o estás aclarando cómo funcionan ciertas cosaspara que la gente que a lo mejor no tiene tanta idea, pues entienda un poco mejor cómo va.Todas las analogías que haces yo creo que en general son muy buenas.Y una de las cosas que me gustaba cuando lo leía, porque se habla muchas veces y ves en las noticias,la inteligencia artificial descubre no sé qué, la inteligencia artificial es capaz de no sé cuántos.Pero claro, parece que es una única inteligencia artificial que es capaz de abarcarlo todo.Sin embargo, tú mismo cuentas, creo bastante bien, que hay muchas inteligencias artificiales,algunas más complejas, que es hacia las que estamos yendo, de las que hablas mucho,otras más sencillas que hacen cosas muy tontas, entre comillas,y hablas de cómo en el fondo la diferencia entre estas inteligencias artificiales pequeñitasy lo que nos gustaría llegar es que necesitamos que haya una serie de procesos,porque al final nosotros tenemos muchos procesos en la cabeza que están sincronizados,hablas de que están orquestados también, utilizando un término un poco más técnico,y qué es lo que nos falta.Estás desmitificando eso de que tenemos una inteligencia artificial muy próxima al generalo al ser consciente y lo estás dejando en cosas más pequeñitas.No sé si me gustaría que abundaras un poco más en ese tema,porque yo creo que lo cuentas tú mejor que yo y vas a ayudarnos a comprenderlo.Sí, yo ahí creo que hay varias cosas, porque si algo está claro,nadie se pone de acuerdo en la definición de inteligencia y si queréis luego hablamos de eso,pero mira, un enfoque pragmático, de informático,esta sí que dice informático que es el divide y vencerás,que es un algoritmo clásico y es una forma de lidiar con la complejidad.No hay duda que la inteligencia es un fenómeno complejo y muy complejo,entonces con cualquier concepto que es muy complejo viene bien hacer esa división,dividir en trozos o componentes más comprensibles,que luego viene el problema de ponerlos juntos, pero de momento nos ayuda.Esto es un tema mío que personalmente me irrita por algún motivo,que es cuando oigo entrevistas o están hablando de la inteligencia artificialo en reuniones de trabajo y alguien dice,ah no, pero bueno, pero eso no es inteligencia artificial o eso no es inteligentey yo pensando, pero ¿cómo que no?El problema que tengo yo con eso es que me cuesta mucho encontrar algo que no sea inteligente,me pasa justo lo contrario,porque con la definición o con el concepto de inteligencia que yo tengoy que se va trabajando en el libro,yo uso quizás esas analogías que parecen de broma,pero de verdad que son muy en serio,cuando pongo ese tipo de inteligencia que digo esto es inteligencia mosquito,que es una forma de decir que es una inteligencia que es un sistema basado en reglas fijasy la gente tiende a pensar que un sistema basado en reglas fijas no es inteligenteo no lo llaman inteligenciay para mí eso claro que es inteligente,¿por qué?Porque si tú tienes que resolver un problemay el problema es llevar a un tren o un avión a una velocidad de crucero específicay que despegue y aterricey eso lo puedes hacer con reglas fijas,pues hazlo con reglas fijas porque es más seguro y es más controladoy la cosa funciona bieny si no funciona ya tendrás que meterte en otro fregado,pero el que haya sistemas que nos parecen como un mosquito,como una hormiga,como algo que para nosotros como humanos parece que es más insignificanteporque no hablan de filosofíao porque no hacen ingeniería,bueno, ¿qué más da?Si hay que resolver un problema y lo resuelves,entonces estamos y volviendo a lo que tú preguntabas,¿ahora qué estamos viviendo?¿Cuál es el debate público, la sociedad en la divulgación?Se está todo el rato hablando,o mucho, ¿no?De la inteligencia artificial generalo de inteligencia artificial tipo humanay entonces la gente empieza a asociarque inteligencia artificial es solo esos sistemasque serían equivalentes a lo que hace un humano,pero esto es un problema muy gordoporque es que todo el mundo conocemos humanosque dicen, madre mía,pero si es que este chico, esta chica,quiere decir que hay mucha variabilidad los humanos también,entonces no es una definición válida para mí decir humanoporque un humano, yo qué sé, tú puedes decirlos humanos pueden correr 40 kilómetros por hora,yo no,o los humanos pueden ver,pues yo sin gafas no.Entonces,al final la inteligencia es reduccionistadecir que es algo que es una cosa que tienen los humanos.Perdóname, tendrías que decirnombre y apellidos de quién,en qué momento del díay cuándo tuvo esa inteligenciapara que eso yo me lo crea.Y hay algo que es tan personal y tan particularcomo una dolencia psicológica, ¿no?Es decir, en el caso de las personas,pues como tú has dicho antes,todos tenemos nuestra pedraday luego además también hay genteque tiene problemas muy gravesy eso depende de cada persona.Resulta difícilimaginarse este escenariocuando estamos hablando de instancias particularesde un sistema de inteligencia artificialporque, yo qué sé, hablando de ChargPT,es como una cosa gigante que habla con todos nosotros,no es como un montón de genteque puede tener distintas particularidades, ¿no?Pero quizás sí que pueda,claro, si ChargPT tiene un problema psicológico,bueno, es uno de los ejemplos que ponesen el libro de hecho, ¿no?Bueno, si quieres explicar la dolenciaque tiene ChargPT, te doy la oportunidad.Sí, sí, vamos a usar ese ejemplo.Es algo que yo creo que usa mucha gente,al menos todos mis alumnos, desde luego.Yo doy clases en la universidad tambiény, claro, mi duda, mi gran duda essi hay algún trabajo que lo haya hecho el alumnoporque lo que veis, por supuesto,en el 99,9% de los casoses que está escrito por ChargPT con cierta ayuda.O sea, yo ya, al menos de momento,luego habrá que ver cómo se adaptanlas evaluaciones y todo eso, ¿no?Y todo el mundo en docencia está con este tema también.Pero lo que evalúo es la capacidadde los alumnos, de los estudiantes,de escribir prompts.Y llegará un momento en que eso sea una skillque se evalúe en sí misma como algo bueno o malo, ¿no?En cuanto a la dolencia de ChargPT,a mí lo que me gusta es que hagasesa matización sobre este término de alucinación.Mira, claro, ¿qué pasa?Que la gente conoce,y si os movéis en el mundo,cualquiera que trabaje en el mundo de la IA generativay esté haciendo proyectos,el gran miedo cuando haces un sistema de IA generativapara una aplicación de negocioo para hacer los deberes,es que el bicho alucine.Yo lo llamo, no sé por qué,pero estoy acostumbrado, por el libro quizás.Yo creo que desde que he escrito el librolo llamo bicho a la inteligencia artificial.Tanto hacer analogíaentre lo biológico y lo artificial.Terminología clínica, ¿no?Y entonces, claro, el miedoque tenemos siempre es que el bicho,en este caso Chas-GPT,tenga alucinaciones.Y esta es una terminología que viene del mundode la informática, de la gente de IA,que lo llamó alucinación.Y claro, ¿qué pasa? En el mundode la psicología clínica, de la psiquiatría,alucinación es otra cosa.A esto que le pasa a Chas-GPTse llama delirio,normalmente, en español.Delirio es eso, montarse una películaen la cabeza, es una narrativa,es una forma de comprender el mundocon una narrativa distorsionada,diferente de la realidad que tienenotras personas. Eso es lo que es un delirio.Mientras que una alucinaciónestá mucho más asociadaa los sentidos.Es decir, yo puedo teneralucinaciones visuales, alucinaciones auditivas,como ver cosasque realmente no están ahí.Parecido a las ilusiones ópticas,pero las alucinaciones ópticassabemos que es una alucinación,no es algo que nuestro cerebro está creandopara darle luegocierto significado. ¿Qué ocurre?Que los humanos, y muy típicamentela esquizofrenia, están muy unidas.Una persona con esquizofrenia puede teneralucinaciones visualesy auditivas, puede oír vocesy luego, a partir de esas vocesque oye, montaruna historia, una narrativa.Ah, pues es un clásico aquí,es el diablo que me está hablandoy me dice que, como he sido mala persona,me tengo que dar con la cabeza contra la pared.Algo así.Lo digo de broma, pero es un sufrimiento.Os imagináisvivir así, ¿no?¿Qué pasa?Que, moviéndonos o llevándonosal mundo artificial,lo que realmente le pasaa CharGBT es eso.Todavía le sigue pasando.Esta semana pasada he estado haciendo algunos experimentosy todavía...Es fácil.Delirar.¿Y eso de delirar qué significa?Pues que tú le puedes preguntar algo.El otro día estaba con un grupode una empresa de farmacéuticay les enseñé,les puse un ejemplo. Digo, mirad,porque ellos quieren usarCharGBT para sus procesos internos,para marketing, para comunicación,para generar artículos, contenidos.Entonces, con ellos,en directo,le pregunté a CharGBT,cuáles son las características principalesdel nuevo fármaco de la empresa Xllamado...Y me inventé un nombre.Dije,NeuroPowerPlus8.Y allí me contóque el NeuroPowerPlus 8 es una invención,es un nuevo medicamentopara... ¿para qué era?Para el Alzheimer.Y que ya tiene unos resultados muy prometedores.Y claro, te lees esoy tienes Alzheimer y dices,esto me voy a curar en dos semanastomándome el NeuroPowerPlus este.Entonces, suena bien, es plausible,pero básicamente es falso.Entonces, el problema...Y esto, claro, desde el punto de vistasi lo analizamoscon un manual de diagnósticode enfermedad mental en la mano,es que eso es un delirio.Entonces, está muy bien ponerle nombre.Yo insisto, y aquí ya estoy defendiendo mi libro,la saco, ¿no? Pero es que yo insistoes que el enfoquede ponerle nombrea los trastornosque tiene la inteligencia artificiales muy útil para identificarlosy curarlos.Esto es doble filo, ¿vale?Porque...Tengo que hacer aquíun paréntesisy explicar que en el mundo de lasalud mental hay muchodebate yhay mucha controversiaen torno a las etiquetas.Las etiquetas tienen cosas buenas y cosas malas.Los que tengáis niños, ya sabéis,oye, ¿es bueno que a mi niño le diga que tieneun trastorno de espectro autista otiene un trastorno de déficit de atención?¿Es bueno o es malo? ¿Se sobrediagnostica?¿Se infradiagnostica?¿Se le poneuna etiqueta al niño o a la niñay eso es peor o mejor?Aquí hay mucho debate que creo que es mejorno entrar ahora porque estamos hablando de IA.Eso es para otro podcast.Pero en el mundo de la IA, siendo pragmáticos,de momento nos viene bien, creo.Sí. Y ponen el nombre adecuado, ¿no?Porque muchas veces los nombres...Se queda el primero, en este caso, las alucinaciones.Solamente se queda el primeroque alguien dijo en Twitter.Y esto va tan rápido que ya todo el mundo se subióa la ola. Mira, la generación Z,mi hija cuando chargepete le dicealgo tal, dice, uy, usted está de lulu.Digo, mira, ese es el término adecuado.O sea, que lo van a solucionar.Qué bueno.Pero sí, es cierto.Y, bueno, no es el único ejemplo que pones,el de chargepete. Este quizás sea el máspop porque,claro, ¿quién no se ha relacionadocon chargepete y ha sufridode sus delirios? Vamos a hablar bien.Sí, sí.Pero bueno,tu libro contiene un catálogode situaciones, además, basadasen casos reales,casi todos, salvo un caso que estarádesde la ciencia ficción,que viene muy al peloy está muy bien.Así que, bueno, nosotros recomendamos a nuestra audienciaque no lo vamos a contartodos.Porque entonces, si no,no comprarían el libro, que no es lo que queremos.Volviendoun momento al tema, que antes te iba ahacer una pregunta, perdona Corti, porque te ibaa dejar despacio, que te veo ahí como...Pero...Al tema antes de los sesgos,que no quiero que se me olvidehacerte una pregunta sobre otra cosa que dicesen el libro, que es que esto de los sesgosestá muy bien,pero que es verdad que los datasetso la realidad perfecta no existey que las IAS tendrán que sercapaces de lidiar con la incertidumbre.Y estoal final deriva entomar decisiones,en un momento determinado, que es algo que va muyligado a lo que es la inteligencia. Ser capaz de tomardecisiones, de poner ese8,marcodea esto. Es unadecisión, pero que es algo que caracterizaa las personas, este bieno mal hecho.Cuando hablas de que una IA debe lidiarcon la incertidumbre, ¿hasta dónde tiene quellegar que no sea capaz de hacer hoy?Claro.Esaes una buena pregunta y es unadecisión que también tenemos que tomar nosotros,porque al final tenemosun rango de IAS. No podemospensar en la inteligencia artificialcomo una especie de nueva especieen la ciencia ficción, quesiempre pasa lo mismo. Bueno, hay de todo,pero es habitual que aparezcacomo una inteligencia artificial,yo que sé, si pensáis en Joe Robot, por ejemplo,yo que sé, o Matrix.Parece que esa inteligencia artificialson todos individuos iguales,con la misma capacidad,pero habría que pensaren una especie de zoo,como el mundo biológico,un paralelo otra vez, como el mundobiológico que tenemos en nuestromundo,en nuestro ecosistema donde vivimos.Pues ahíno vamos a decir ya individuosmás inteligentes queespecies, unas más inteligentes que otras,sino que cada especie se adaptay sobrevivecon una serie de estrategias.Y yo a todas esas las llamoestrategias inteligentes, porque cualquier cosa que hagasque hace que no te mueras,para mí es inteligente,porque te ha funcionado.Aunque sea una regla,en vez de una regla sencilla.Claro, y ahí voy,es justo lo que iba a decir ahora,porque si yo tengoque hacer,tengo que automatizar una tarea,o tengo que usar inteligencia artificialpara un problema de negocioy me sirve con unas reglasfijas,¿por qué iba a implantarotro tipo de solución ahí? Eso no esinteligente, eso es tirarrecursos.Transformers no es IA, ¿no?Claro, eso era lo queyo decía que a veces me molestaba,porque incluso, a ver,a mí este año me ha dado, soysincero, me ha dado negocio, yo he tenidomás trabajo, porqueclaro, hago cosas deIA generativa y hay muchas compañíasque quieren hacer, oye,como estamos en el boom de la IA generativa,que son, como tú bien dices,con las arquitecturas Transformers,con los grandes modelos de lenguaje,los modelos multimodales, todo esto,claro, es, yaqueremos matar moscas a cañonazosy queremos hacertodo con eso y que, oye,desde donde funcione bien, bien, pero es quetendremos que tener variedadde individuos, de diferentes individuosy cada individuo tendrásus capacidades y susproblemas, y los problemas que tieneun mosquito son diferentes que los problemasde una rata y diferentes de los problemasque tiene un humano,y con la IA es lo mismo, tendremosIA tipo mosquito, que para arreglarlaserá más fácil, para ver qué hacepor dentro, no será tanto caja negray se la podrá arreglar y controlarmejor, pero siempreviene el compromiso, aquí viene lo importante,y siempre hay un, como dicen en inglés,un trade-off, un compromiso,buscar un balance entre.Yo quiero un sistemaque seamuy inteligente,pero que sea muy barato, poco costoso y quese entienda bien, pues eso se llamabueno, bonito y barato, o en base de datosse llama tener consistencia, tener distribución,o sea, en cualquierdisciplina lo encontramos,hay varios ejes y tú no puedesmaximizar todos,no puedes maximizar todos.inteligencia equivalente a la del humano y que no se comporte como una caja negra.¿Por qué? Pues podemos debatirlo más, pero básicamente porque ¿conocéis a algúnhumano que no sea una caja negra? Incluidos nosotros mismos. Que el ejemploque yo siempre explico es, mira yo ahora estoy hablando, estoy en un podcast y mepuedo observar a mí mismo mediante introspección y me veo, incluso me puedomirar en la cámara y veo que mi boca se mueve y que sale lenguaje y que estoyaquí diciendo cosas, pero es que no tengo ni la más remota idea de qué estáhaciendo mi cerebro para escupir todas estas palabras.Es caja negra, pero negra, negra, negraca. No veo nada.¿Haces una reflexión en el libro sobre esto?Sobre si deberíamos relajarnos con esto de la explicabilidad.Porque nosotros mismos no sabemos a veces explicar nuestras propias decisiones.No digo que hay mucha preocupación con esto, desde siempre en el mundo de la IDA.Sí. A ver, hay que confiar, hasta cierto punto.Hombre, tampoco yo digo que hay que tener confianza ciega, porque hay quemirar cómo están hechas las cosas, pero a veces se quiere una explicabilidad queno es posible, que no es viable, explicabilidad sí, pero ¿qué tipo deexplicabilidad? Porque a lo mejor estamos pidiendo algo mágico que no existe y estan simple. Vamos a hacer un ejemplo tradicional.Yo soy una empresa tradicional y tengo datos de ventas y de mis clientes ylo tengo en una Excel, pero crezco y luego lo tengo en una base de datos y resulta quetengo ocho millones de registros de histórico.Eso es una caja negra. Porque ¿qué voy a tener que hacer conlos ocho millones de registros? Hacer un dashboard, un cuadro de mando y eso sellama la media, voy a hacer unos graficos, voy a poner una tendencia, voy ahacer estadística y entonces yo lo que voy a hacer como humano es mirar esecuadro de mando que tiene una tartita, que tiene unas barras y voy a decir lasventas de tal punto. Pero yo ni de broma me voy a mirar ocho millones deregistros. ¿Qué queremos? Una explicabilidad que diga es que es cajanegra porque no estoy viendo los ocho millones. Ya macho, no lo estás viendo, peroes que los quieres ver. Te va a dar un pamo con los miles.Simplemente que no sea caja negra el proceso de obtener ese cuadro demando a partir de los ocho millones, pero no quieras ver, no quieras entender loque hace un ordenador mirando todos los transistores que tienen elmicroprocesador porque no es viable. No quieras entender un humano mirando cómodispara cada una de sus neuronas porque tiene 90.000 millones y te va a dar unpamo igual, no tiene sentido. Entonces con una red de neuronas artificiales igual. Yono puedo hacer una explicabilidad decente mirando a un nivel bajo. El nivel bajo esnivel bajo y no se puede y es como la física.La física cuántica según entendemos ahora aplica a todos los sistemas físicospero la pelota de baloncesto te la trae el pyro, los efectos cuánticos, ¿no?¿Por qué? Porque te vale la explicación que tienes. ¿Es la explicación real? Ni debroma, no. Pero te vale, pues te vale. Entonces es un pragmatismo, ¿no? Pero quetenemos tanto miedo con la IA que perdemos el foco del pragmatismo, ¿no?Entonces hay que buscar qué es lo pragmático en el mundo de la IA y habráque encontrar un nivel de descripción que nos satisfaga y para entender elnivel de descripción que nos satisface hay que ver cómo es el bicho. Para unbicho tipo mosquito a mí me satisface mirar todas las reglas pero para unpiloto, para el autopilot, para un coche, para un vehículo,autónomo, para mí no es un explicativo cuál es. Ahí ya tengo mis dudas. ¿Quénecesito ver yo para estar tranquilo y subirme al coche y decir no me va aestallar, no me va a empotrar contra un muro o va a atropellar a unos niños o aHitler o a una abuela que siempre el ejemplo que se pone. Yo creo que muchasveces se confunden, que están muy interrelacionados, los conceptos deexplicabilidad y de trazabilidad. Porque por ejemplo cuando tú ves, hablando deIA generativa y cosas modernas, cuando tú ves el comportamiento de un agentetípico con un algoritmo simple de react, por ejemplo, ¿no?No sabes, porque hay un LLM detrás, por qué ha obtenido cada una de lasobservaciones intermedias pero sí sabes cuáles son esas observaciones. Tienes unacierta traza del razonamiento del sistema pero quizá eso essuficiente desde un punto de vista de trazabilidad pues si hay uncomportamiento que no es el esperado. Pero no tienes por quéllegar al grano finísimo del átomo, ¿no? Es una cosa ya que dices ¿para qué quieroesto? Sí, ahí el cerebro, mira, si nuestra mente funciona parecido.Porque quizá antes cuando he dicho el cerebro es como una caja negra y yo nosé en absoluto por qué digo lo que digo. Hombre, alguna idea tengo, ¿no? ¿Y cómo lo hago? ¿Por qué?Y esto seguro que lo habéis oído si os gusta la neurociencia, ¿no? Alguien habráescuchado algo así. Siempre hay una especialización hemisférica y se diceesto no es, a ver, esto tampoco, esto es un poco metafórico pero para que nosentendamos. Es como que el hemisferio izquierdo es más analítico y el hemisferioderecho es más de las emociones y es más abstracto. En definitiva, sea la parte delcerebro que sea, o sea, como se haga, lo que ocurre en nuestra mente esnuestro sistema nervioso resuelve problemas y lo resuelve a la velocidadque las tiene que resolver para funcionar. Y luego nosotros encima, en plan, como unamáquina virtual que tenemos, que pensamos con lenguaje, nos montamos una batalla yesa batalla la llamamos explicación y tú utilizas a ti mismo. Claro, si yo lodejé con mi novia porque es que ella... Y te cuentas tu batalla que luego si vasal psicólogo a lo mejor la cambias. Lo que me pasaba era hasta otra cosa. Pero quesi no vas al psicólogo pues tú con tu batalla o un amigo o alguien. Elcerebro es una máquina de generar narrativas o tiene una parte, nuestrocerebro tiene una parte que se dedica full time, tiempo completo, se dedica agenerar narrativas y las va a generar. Y esa es una forma en la que nosotrossolventamos el problema de caja negra. Pero claro, esa máquina que generanarrativas, observando tu conducta, no observando los microprocesadores, noobservando las neuronas, esa parte ve que has hecho algo y dice, ah, esto lo hashecho porque estabas enfadado. Has contestado mal a tu amigo en unaconversación porque ya te había tocado las narices con esto y entonces claro yase te ha ido y esto ha sido la gota que colmaba el vaso. Y ese es tu modeloexplicativo. Entonces los humanos por eso queremos modelos explicativos. Porqueestamos todo el día, nos calmamos dándonos explicaciones. Oye, ¿por qué me hamirado mal el vecino? Pues hasta que no encuentres una explicación, te rayas.Y esa necesidad la llevamos a todo y nos la llevamos a la IA. Simplementetenemos que ser conscientes, esto es un poco de psicoeducación, ser conscientesque queremos una explicación que nos satisfaga y tenemos que buscar unmecanismo que nos dé explicaciones que sean razonables y que estén ajustadas ala realidad. Y no nos queda más remedio que hacerlasmirando a la conducta, no mirando al sustrato que genera la conducta, porqueeso es mucho más complicado. Total. Yo creo que conecta mucho con lacuestión que comentabas antes Raúl, que pones en el libro también, que es lainteligencia, de qué está hecha la inteligencia. Al final tradicionalmente,bueno si quieres ya cuéntanos tú un poco cómo ves esto. Pero una cosa que veo esque cuando hablamos a día de hoy muchas veces de comportamiento inteligente, comobien decías, muchas veces hacemos referencia a un comportamiento másparecido al humano o al menos un comportamiento que en animales seríaavanzado. Y cuando miramos la naturaleza nos encontramos que tanto nuestrocerebro como otros sistemas que puedan parecer inteligentes, pues como unacolonia de hormigas, al final una sola no, pero cuando son muchas y que tiene uncomportamiento que parece inteligente, pues son comportamientos emergentes.Son muy complicados de definir. Entonces estamos, yo creo, venimos acostumbradosa que históricamente todo lo que hemos hecho nosotros, o han podido hacer lasmáquinas, era una acción-reacción. Porque al final una fábrica es unaacción-reacción. Los ordenadores hasta ahora, en que hagamos virguerías, siempre podíasexplicarlo todo. Si muevo el ratón aquí, hace no sé qué. Si clico la X se cierra.Siempre ha sido toda acción-reacción, pero cuando nos vamos a comportamientosque llamamos más inteligentes, que son emergentes, es imposible trazar. Que yocreo que hasta la gente no lo entiende. Es que tú no puedes trazar. Pasa algo, como hasdicho tú, hay 90.000 millones de neuronas interconectadas, no tienen nipajolera idea por dónde pasa. Hay como un salto. Estamos en un momento en el quetenemos que pasar de lo concreto, que eran esas reglas, la inteligencia demosquito, que es fácil de explicar, lo bueno que tiene, son reglas, a algototalmente abstracto, que no vamos a ser capaces, como dices, de explicar nunca,seguramente. Claro, que también son reglas. Esto recuerdo una reunión quetuve hace muchos años, que trabajaba yo en consultoría, y esto eracon una telco, le habíamos hecho unos algoritmos de recomendación,de personalización de contenido en la web, y me decía el cliente, a ver, pero esque yo tengo que saber lo que va a hacer el algoritmo, me tenéis que dar, esto nopuede ser una caja negra, me tenéis que dar las reglas. Y yo le decía, te suena, ¿no?A vosotros os sonará mucho eso, sí. Y yo le decía, a ver, esto es como el chiste,que yo no es por no dártelas, que si tú las quieres, yo te las doy.Ahora, te va a llevar un tiempo leértelas, porque también son reglas, y cuandoestamos hablando, yo que sé, sale ahora, esta semana, salió Lama 3.1, ¿no?¿Y cuántos son? ¿305 billones de parámetros? No me acuerdo, ya es astronómico, los quesean, ¿no? Pero billones o trillones de parámetros, esos son, si yo me cojo elarchivo con los valores, ahí están las reglas, si las reglas están, tú te coges eltransforme, te coges, y esos son reglas, claro, pero no es útil mirarlas, con locual necesitamos extraer, porque nuestra cabeza, si no, no lo comprende.Entonces volvemos a lo mismo, que tenemos que hacer ese salto de confianza y, a ver,no es un acto de fe, es simplemente comprender procesos que, como tú biendecías, los podemos llamar emergentes o los podemos llamar, que simplemente sonniveles de descripciones en diferentes, que al final son diferentesrealidades y se construyen. Mira, el concepto de máquina virtual eninformática, los que somos informáticos entendemos muy bien el concepto demáquina virtual. Entonces yo tengo un sistema operativo, pero es que puedomontar y tú puedes decir, no, no, pero ahí no hay un linux de verdad, eso es lamáquina virtual. Bueno, perdona, ¿está haciendo todo lo que hace un linux? Sí, pueseso, pues el programa que vive ahí dentro es como matrix, vive en matrix, secree que está en un linux. Entonces, claro,el riesgo, el riesgo es el riesgo matrix, yo creo, el riesgo es que tú te crees una,que te empiecen a contar explicaciones por todos lados que son falsas y tú telas creas. Ese riesgo lo hay,pero no en el caso de la IA, porque en el caso de la IA la estamos generandonosotros y somos nosotros los que hemos construido la máquina, con lo cualtambién estamos construyendo esas explicaciones que saltan de un nivel aotro.No sé si os he dejado preocupados. No, no, no, realmente en el fondo estáclaro que todo lo que hagamos, todo lo que haga la humanidadlleva su impronta. Quiero decir, los conjuntos de entrenamiento, que lo mássencillo que podemos pensar, no son más que un reflejo de las personas que losestán creando y ahí vienen los riesgos muchas veces y todo eso. El problema estáen que, desde mi punto de vista, lo que le permitimos a los humanos, que es quetengas sesgos, aunque se vea mal, pero si lo permites, o que se equivoque, o quealucine, o lo que como lo quieras llamar, que no sea alucinación, o lo que sea,parece que de repente no se lo puedes permitir a la máquina. Estar pidiendo quete ayude, que te dé una funcionalidad similar, pero ya no te vale.Hay un estándar, le ponemos la barra, el estándar mucho más alto a la IA quea nosotros, que quizá no está mal. Pensad en el dominio delvehículo autónomo. O sea, ¿cuántas personas mueren por accidente detráfico al año en un país? Pues ya lo sabéis, son miles y está, no es que estéasumido, pero ocurre, lleva años ocurriendo, intentamos bajar los númerosy todas esas muertes, bueno, todas no, pero un porcentaje importante de esasmuertes, de esos accidentes, vienen de la inteligencia humana, cometiendo errores,cometiendo imprudencias, cosas que se podían evitar con más inteligencia,digámoslo así. Ahora bien, vamos y comparamos con el vehículo autónomo.Un vehículo autónomo tiene un problema titular.Pero si somos justos con el dominio artificial, ¿qué tendríamos quehacer? Pues como hacemos los científicos en otras áreas, comparar con la mismamétrica. Claro, si comparas con la mismamétrica y dices, vale, de cada millón de kilómetros conducidos por un humanose producen tan equilesiones, y por cada millón de kilómetros conducidos en lasmismas condiciones, con el mismo vehículo, tal, se producen muchas menos, pues es másseguro el vehículo autónomo.No es fácil de asumir. No, claro que no. Si yo mismo, según lo estoy diciendo, digo, sí, sí, ya, pero no me subo.Claro que no es fácil. Es que no es fácil, claro. Sí, desde luego. Pero yo creo que hay otro tipo de problematambién ahí, ¿no? En cuanto a lo que podemos llegar a confiar, que es quenosotros tenemos montado un sistema hecho para nosotros. Un sistema, por ejemplo, deasunción o adjudicación de responsabilidades, sistema legal, ¿no? Queestá hecho para nosotros, los humanos, en el momento... Esto fue la causa... Siemprecuento el mismo rollo... Cortadme, por favor. Esto fue la causa del fracaso deMycin, que fue uno de los primeros sistemas expertos, mítico, de asistentede medicina, que, bueno, si se equivocaba, y no tomaba decisiones finales,simplemente asesoraba, ¿no? Pero si se equivocaba y su criterio iba en contra del del médico,no se sabía a quién había que echarle la culpa, ¿no? No se sabía quién tenía laresponsabilidad civil y tal. Con el coche autónomo pasa un poco lo mismo. Y yocreo que poco a poco iremos teniendo más datos, gracias a lo que ocurre enciertos sitios de Estados Unidos, en China, que ya empieza a implementarse eltaxi no tripulado, ese tipo de cosas. Datos como a los que tú haces referenciaen cuanto a KPIs, etcétera. Los iremos teniendo y aumentarán mucho la confianza,pero esa última milla de convencer a los que hacen las leyes y tal...Es que hay una capa adicional. Yo esto lo veo como otra capa adicional, que es laidea, y que también yo creo que la tercera parte del libro, intento expresarlo, es laidea de inteligencia extendida. O humano extendido, o inteligencia ambiental...Sabéis que depende de la disciplina se le pone una etiqueta diferente.Pero cuando has hablado... Un humano, y esto en psicología igual, en psicología y endesarrollo todo el mundo entiende, que si tú tienes un bebé humano, con todos losgenes de humano y con el potencial de un humano, pero no tiene una tribu, porcitar la frase famosa, si no tiene sus cuidadores, si no tiene una sociedad, sino tiene un contexto del que aprender, el humano no llega a un adultointeligente como lo que nosotros conocemos. De hecho, no aprende ni a hablar.Entonces, claro, ¿un humano como individuo es inteligente con la inteligencia tipohumano que conocemos? No. Yo, sin mi ordenador, sin los milenios decultura que tenemos detrás, sin la civilización en la que vivo, sin losservicios que tenemos, sin el sistema legal, sin todo eso, yo no funciono comoindividuo. Entonces, en la IA ocurre lo mismo, con laparticularidad de que la inteligencia extendida o la inteligencia ambiental enla que una IA, en la que un sistema artificial, puededesenvolverse es el mismo que el nuestro. Y el mismo... Es que al final vamos aconverger al mismo, porque no están en otro mundo paralelo. Muchas veces tendemosa hacer esa psicotomía, ¿no? Es que un humano tiene su inteligencia y lamáquina tiene la suya. Que no, que no, porque yo conduciendo mi coche ahora,volvemos al mismo ejemplo, y ahí se ve muy bien, no estamos pasando deconductores humanos a un vehículo autónomo. ¿A qué estamos pasando? Al niveleste, ¿cómo se llama? Nivel 1, 2, 3, 4, y todo el mundo tenemos ahora un frenadode emergencia, o tenemos un asistente de carril, o tenemos un aparcamientoautomático. Entonces, ¿qué estás haciendo? Repartir la responsabilidad.Y empezar a repartir. Y habrá casos muy claros en los que, ah, no, no, el coche se haroto y por eso me ha dado el golpe. O, no, no, el coche me ha indicado tal, pero yono he hecho caso, le he forzado y nos hemos dado el golpe. Y habrá una delgada línearoja que, entonces, ¿de quién ha sido la culpa? Del equipo. Del equipo conductorvehículo, que no se ha coordinado bien. Y entonces estamos en esa, el problema, poreso quizás es tan difuso esto a veces, ¿no? Porque estamos en la transición. Estamosdirimiendo, en ese conjunto humano-máquina, en interacción y en esainteligencia híbrida, ¿quién tiene la responsabilidad? Y es que laresponsabilidad va a ser, a veces, no es fácil de separarla, porque no se va apoder separar. Que nos están metiendo poco a poco por el aro, nos están haciendo pasarpor el aro poco a poco, ¿no? Y esto me trae a la cabeza un comentario que hacestambién en el libro, que es algo así como que los problemas mentales vienen enmuchos casos, a día de hoy, por la falta de adaptación a la evolucióntecnológica que hemos tenido tan rápida, ¿no? Y quizá, quizá, bueno, supongo quecuando lo comentas en el libro te refieres también a temas como redessociales, ¿no? Todo lo que ha traído, toda la... No sé si decir enfermedades que notengo tan claro, pero, desde luego, todo lo que estamos viendo a día de hoy. Y, claro, ¿creesque la inteligencia artificial, con todas las aplicaciones que vienen y con estoque estamos diciendo, ¿no? La manera en la que nos la van metiendo, y lo digo de buenas,no lo digo de malas, puede traer todavía nuevas patologías, nuevos problemasmentales, ¿cómo lo defines tú ahí? Sí, yo creo, mira, incluso podemos ser máslaxos y quizá en vez de decir trastorno mental, porque es verdad que tiene esaconnotación, podemos decir sufrimiento, o podemos decir sufrimiento-malestar, ¿no?Y entonces, y aquí nos pasa lo mismo, es, oye,queremos, a veces, el hecho de ser consciente, quizá hay que buscar unteorema de estos para la inteligencia artificial, que no podemos tener, que estolo conoce todo el mundo, es, no podemos tener una inteligencia artificial con una...¿Por qué? Pues porque nuestra biología en la que es y de repente en pocos cientos de añostenemos calorías sin tener que hacer ejercicio y con una palatabilidad tremenda.Entonces yo me puedo comer helados, puedo comer golosinas, puedo comer tal y no tengo que hacer ejercicio.Pues ya está. La biología de los humanos no estaba diseñada evolutivamente para el supermercado.Y ahora tenemos supermercados en todas las esquinas. Pues tenemos un problema con eso.Es una patología. Nos genera malestar, sufrimiento, problemas de salud.Y con la tecnología nos está pasando lo mismo. Somos seres sociales.Nuestro cerebro está cableado para establecer relaciones con otros, con iguales, con otros humanos.¿Qué estamos empezando a tener? Relaciones. Primero, y aquí es lo que tú decías, Frankie, de ir por el aro.¿Cuál es el aro? Primero estamos teniendo relaciones con otros humanos mediadas con tecnología.Las redes sociales. Ahora estamos nosotros con telepresencia, con una videoconferencia.Pero seguimos siendo humanos, interaccionando entre ellos y la tecnología solo está mediando.Solo está haciendo lo posible. Haciendo posible que nosotros nos comuniquemos.Cambia la forma de interaccionar gracias a la tecnología, pero sigue siendo relación humano con humano con humano.Con la IA cambia la regla del juego. Porque ya hay un actor nuevo, sobre todo los grandes modelos de lenguaje,donde tú estableces una relación, que en este caso es lingüística, una conversación, que ya no es Alexa, enciende la luz.Eso es una relación, pero muy leve. Desde el mundo de la salud mental también lo hemos hablado mucho,yo con colegas psicólogas, que muchas personas no tienen acceso inmediato a su psicóloga o acceso a salud mental,porque tienes un problema, una crisis de ansiedad, un ataque de pánico. Antes ibas a Google y ahora puedes ir a ChatGPT.Oye, tengo un problema con mi hijo, le he dicho esto, me ha hablado mal, o mi novio me ha dicho que no sé qué,esto está bien, ¿qué puedo hacer? Y ChatGPT eso lo hace genial, porque hace de libro. Te dice lo que sea, te da una serie de pautas.¿Qué quiero decir con esto? Que ahora nuestra forma de relacionarnos con otros humanos, es empezar a relacionarnos con máquinas y con humanos,en el mismo entorno tecnológico. Y seguiremos moviéndonos y mientras estas máquinas, cuando estas máquinas empiezan a adquirir más identidad,porque ChatGPT ahora, si hablabas, siempre le preguntas, ¿y tú cómo te llamas? ChatGPT está por este proceso de alineamiento que tiene hecho,el modelo de instrucción, siempre te dice, no, yo no tengo emociones, yo no tengo opiniones propias, pero podemos construir una IA que simule una identidad,unas emociones propias, aunque no las tenga, yo no digo que las tenga, que las simule, que simule unas emociones, que simule una identidad.Entonces, ¿yo puedo establecer una relación con un ente simulado tipo humano? Pues sí, en principio sí.Y puede llegar a ser indistinguible, esto es el test de Turing Relacional, puede ser indistinguible esa relación que establezco con una máquina,porque vosotros no estáis aquí, yo estoy relacionándome ahora con tres ventanitas en un ordenador y con un audio.Y la tecnología que tenemos, dentro de ya, puede generar esas caritas, puede generar la conversación y puede contestar.¿Te trae algún trastorno? Que está en el libro también.Sí, tal cual. Me gusta que hayas sacado este tema de la relación entre, que lo menciona mucho en el libro, la relación entre humano-máquina, vamos a decir,como se decía en el diseño clásico de interfaces, pues claro que esa relación tiende a una hibridación cada vez más cercana y quizá,y este enfoque transhumanista, que llegará un momento en el que nosotros le daremos algo a la IA, la IA nos dará algo a nosotros y emergerá una cosa nueva.Si se suele hablar de humanos potenciados, a mí todo esto del transhumanismo siempre da un poco de yuyu porque la primera cosa que se hizo en este sentido fue temas de eugenesia y cosas así,pero antes de la tecnología esta. Pero bueno, este enfoque más bonito, como el que tú propones, donde la inteligencia artificial moderna o futura aportará una serie de cosas,una capacidad de racionamiento y de análisis de grandes cantidades de datos brutales y el ser humano le da otra cosa que la máquina no puede tener.Este enfoque a mí me parece muy bonito, el enfoque que tú propones de hibridación y que cada uno aporta por un lado para crear algo mejor.Al final son tipos de mentes diferentes, son mentes artificiales dentro de toda la variedad que podamos construir, son mentes diferentes y es verdad que intentamos que tengan capacidades como las que tenemos nosotros,es decir, la capacidad de aprender, de prestar atención, de generar, producir lenguaje, comprender lenguaje, etc. Pero siempre van a ser diferentes.Ahora bien, es en la relación que establecemos con ellas donde emergen conceptos como identidad, vínculo.Y aquí la gran cuestión y el gran problema, que ya es más que científico, es hoy por hoy todavía filosófico, es mucho de la filosofía de la mente y es esta parte de la conciencia.Oye, yo sé que como humano lo que experimento emocionalmente lo experimento y es real, tengo una vida interior, tengo una experiencia subjetiva.Es decir, tengo poder malestar o puedo tener alegría y la siento. Ahora la máquina hoy por hoy lo que sabemos es que puede simular.Podemos hacer un chatbot que diga, uy, estoy súper contento, genial. Pero asumimos que no está sintiendo en absoluto nada, no tiene esa componente, esa dimensión consciente, no la tiene.Si la van a tener o no en el futuro, no sé, yo hice la tesis doctoral, no sé si acordáis, la hice de sobreconciencia artificial, sigo sin saberlo. Habrá que hacer otra tesis, no sé, pero no me quedó nada claro.Sigo sin tener una opinión con respecto a eso, pero da igual. El tema es, con este enfoque de hibridación, si yo, claro, es que mi identidad tampoco es mía, no la generó solo mi cerebro.Mi identidad se genera también y se produce en interacción con vosotros ahora mismo o con toda la gente con la que me relaciono.Cuando me estoy relacionando con una IA, aunque no sea nada consciente esa inteligencia artificial, yo sí que voy a aportar la conciencia de lo que estoy sintiendo en la relación con esa IA.De alguna forma, mediada, esa máquina que hoy por hoy yo pienso que no tiene conciencia, sí que está aportando, sí que está generando, al menos, contenidos nuevos en mi proceso consciente.Y en ese sentido, que no es mágico ni esotérico ni nada, simplemente que me aporta otros contenidos, estamos construyendo una especie de transhumanos o humanos tendidos, como lo queramos llamar.Al final, la duda que tenemos es si va a ser a través de un implante que nos meta tipo el Neuralink, si va a ser Neuralink o si va a ser sin Neuralink, con gafitas y ya está.Yo prefiero que sí, sin bisturí.Hay una parte en todo esto, ¿no? Hablas de cómo nos relacionamos con una IA y en el fondo hay una cierta parte de que nos relacionamos de una forma u otra en función, con una IA, con un ser o con cualquier cosa, en función de si consideramos que tiene conciencia o no.Que esto nos ha pasado, alguna vez lo hemos hablado en la tertulia, incluso con los animales, desde que asumimos más recientemente que hay muchos animales que sí son conscientes, empieza a haber un fenómeno de cómo les protegemos, cómo cuidamos versus a cómo se hacía hace un tiempo.No sé cómo piensas, pero muy seguramente a lo mejor dentro de 30, 40, 50 años los seres humanos que nazcan y se acostumbren a interactuar con IA sean conscientes o no, pueden tener una relación muy distinta a la que tengamos nosotros, que cuando éramos niños no interactuábamos con seres artificiales.Es decir, que nuestro ámbito de referencia siempre ha sido la conciencia. Hemos puesto un límite en hoy si interactuamos con un ser consciente es una cosa y no es consciente es otra. ¿Esto se puede perder con el tiempo?Yo creo que sí, porque se puede dejar de poner esa frontera tan nítida porque realmente, además en el marco temporal que me planteas, es como 40 o 50 años. A ver, nunca se sabe, pero si seguimos aquí vamos a tener unas máquinas que la experiencia de un bebé con ellas...Esto suena a lo que voy a decir ahora porque suena muy raro, pero probablemente un bebé pueda tener una experiencia, no voy a decir equivalente a la de un cuidador humano, pero que si la máquina sabe sintonizar, efectivamente, pasa en nutrición.Hay una epidemia de obesidad de síndrome metabólico en el planeta.Es que es muy posible que tengamos máquinas que hagan mejor cuidado que algunos humanos.¿A qué me refiero con mejor cuidado?Porque puede haber padres que por su problema mental, por sus circunstancias, por lo que sea,no sepan sintonizar emocionalmente con un bebé, por ejemplo, o un niño pequeño.Y una máquina diseñada para hacerlo, lo va a hacer mejor.De igual forma que hoy en día, una máquina juega al ajedrez mejor que cualquier humano.Porque tú has diseñado esa máquina para jugar al ajedrez.¿Qué pasa? Que efectivamente hay una distancia grande entre resolver un problema como jugar al ajedrezo conducir un vehículo, a cuidar un bebé.Por supongo el ejemplo que es muy delicado, ¿no? Cuidar un bebé, cuidar un niño.Digo cuidar y no digo criarle entero, ¿vale? Criarle hasta los 18.Bueno, dentro de 50 años será hasta los 60 que tendrás en casa al niño.Al paso que vamos, si haces la proyección, si haces una regresión lineal, sale.Pero sí que va a haber esas competencias de mentalización, de teoría de la mente,de este llanto que tiene el bebé ahora es por esto, por lo otro.Claro, va a tener una capacidad, una máquina va a tener una capacidadmás grande que la que tiene un padre o una madre hoy en día.Pero en un futuro, yo no lo veo un futuro distópico en el que la máquina,como esta de ciencia ficción, donde las máquinas crean a todos los niñosen una guardería automatizada como si fuera una fábrica.Más bien lo que veo es un padre o una madre extendido, aumentado.Donde hoy nos parece una aberración que yo tenga una Google Glass o una Apple de estasy me diga, el niño está llorando porque se ha hecho caca.Pues eso ya lo miras tú.Es verdad, el listón en la crianza no está muy alto.Hay otros problemas que solucionar en cuanto a lo que es,bueno, el gran problema es la robótica.Interactuar con el mundo real, en el mundo digital y tal.Pero ya, en este caso también de la crianza de los bebés,ya estamos haciendo uso de tecnología para aumentarnos.Porque una cámara de esas remota te permite hacer una serie de cosasque no podrías hacer de ninguna manera sin esto.Y a lo mejor esto se lo explicas a alguien hace 50 años y se lleva las manos a la cabezay dice, vamos a dejar solo al niño.O sea que estas cosas irán evolucionando y la sociedad las irá absorbiendo, supongo.Tendrá la capacidad la máquina de ser autónoma con el bebé para determinado tipo de tarea.O de tirarle el tranchete. Bueno, que no sé si habéis visto el tranchete en la cabeza al niño.Que parece ser que si tiras al niño un tranchete en la cabeza deja de llorar.Ese es el truco de ahora.¿Para haberlo sabido?Ojalá lo hubiera sabido, sí.Yo se lo voy a tirar a mi hijo de 17 años, ya tiene un tranchetera cuando le vea.Pero claro, evidentemente hay una serie de retos, pero si se superan, es decir,si existe la capacidad, de manera natural usaremos la tecnología para mejorarnos la vida.Claro, y aquí entra la serie de decisiones de diseño de las que estábamos hablando antes.O sea, aquí tenemos nosotros el control, porque a veces tenemos una narrativay pensamos en esto, como que las máquinas van a venir y van a hacer no sé qué.Es que las máquinas no tienen ninguna intención de nada.No hay ninguna máquina que quiera venir aquí a cuidar niños.O sea, a 2024 no hay máquinas ahí elucubrando y haciendo un contubernio.No, dentro de unos años vamos a cuidar nosotros a todos los niños.No, somos nosotros los humanos los que quizás diseñemos máquinas que nos ayuden en tareas,como asistirnos con la crianza o con la educación de los más pequeños.Y entonces somos nosotros los que vamos a decidir cómo lo hacemos y qué responsabilidad se toma.Ya hemos decidido, a fecha de hoy, que está bien que el niño se quede o la niña en una cunay le pongamos una videocámara y tengamos una telepresencia desde el salón.Eso nos parece razonable a casi todo el mundo hoy en día.¿Por qué? Porque lo hemos decidido así y la cultura va evolucionando.Entonces, que no nos quedemos con la idea de que las máquinas o la inteligencia artificialtiene una agencia, una decisión, una agenda propia.La agenda es la nuestra.Y luego nosotros tomamos la decisión para que esa agenda que ponemos en práctica sea saludable.Y ahí están las decisiones de, oye, está bien que el niño con 11 años tenga redes socialesy pase 6 horas al día haciendo doomscrolling.Esto es una decisión que tenemos que tomar los humanos adultos.Que decimos, sí, sí, eso está bien. Genial.Pues los metemos a todos en una granja con pantallas y los aparcamos allí.Eso es mejor que el tranchete todavía.El problema es que muchas veces la respuesta es, si con eso me dejan paz.Claro.El cortoplacismo.Eso es.Pero bueno, aquí es verdad que cuando hablas de agencia o de si tiene su propia intención,también nos podríamos ir al tema de la conciencia.Que evidentemente las máquinas hoy en día no la tienen.Ni hay visos de que la puedan tener.Pues es una cosa que construimos nosotros. Esto es muy difícil que ocurra.Pero sí que haces una diferenciación con la conciencia.Y con los valores morales codificados y el comportamiento.En un ejemplo tan extremo como el del cuidado de los niños,esto aplica a todo.Pero en un ejemplo tan extremo como este, esto cobra ya una importancia capital.El hecho de que la máquina tome decisiones o deje de tomarlasen base a una serie de preceptos que nosotros más o menos tenemos interiorizadosy respetamos también según el caso.Pero todo este sobreentrenamiento que se hace, por ejemplo, con los LLM,con feedback humano, va un poco orientado a esto, ¿verdad?El tema de codificar una conciencia.Más que eso, yo lo veo... Bueno, en el libro lo llamo domesticar, si no recuerdo mal.Es una forma de domesticar al bicho porque al final...Nosotros somos capaces de construir una máquina que aprenda.Cuando la máquina sabe comprender el lenguaje y generar el lenguajey la dejamos que aprenda lo que sea, pues ya sabemos lo que ocurre.Como con los niños, va a aprender cosas buenas y cosas malas.Va a aprender todo.¿Qué son los grandes modelos de lenguaje que tenemos desde hace relativamente poco tiempo?Pues esas máquinas que aprenden de todo.¿Por qué aparece ese proceso de alineamiento con el feedback humano o las técnicas que sean?Porque tú necesitas poner en producción o dar un servicio que sea una máquina domesticada.Y ese es el proceso.Eso es a lo que me refería con las decisiones de los humanos.¿Quién tiene ahí la agencia?¿Quién tiene ahí? Pues la compañía que está haciendo eso.En el caso de ChatGPT es OpenAI el que decide cómo se alinea.Entonces tenemos una máquina que está domesticada para ser políticamente correcta.Es una máquina que sabes que jamás te va a...No sé que haya un fallo muy gordo, pero sabes que en principio no te va a insultar nunca,no te va a tratar mal, no te va a...Oye, y si lo pensáis desde el punto de vista de las relaciones interpersonales, está guay.Poder hablar con alguien que nunca te juzga, que nunca te insulta.Que vale, que no te insulta, pero tampoco le puedes pedir penas al horno.Tiene muchas cosas interesantes.O sea, no te insulta, pero insisto, no te juzga.No te habla mal, no te insulta, te escucha todo el rato.No se cansa.Entonces, bueno, pues volvemos al teorema ese de bueno, bonito y barato.Pues es bueno, bonito, pero no barato.No tiene conciencia, ya se la pones tú.Totalmente.¿Tú crees que este tema de la conciencia o el buen comportamiento, la moral,tienen que ser atributos que estén incluidos en la medida de rendimiento de una inteligencia artificial?Depende del caso de uso, de la aplicación.Claro, si el rendimiento o el indicador que tú uses, si estás soldando fuselajes de avión,pues a mí me importa un bledo que el fuselaje esté más contento o menos.Yo quiero que lo suelde bien.Entonces, mi KPI es ese.Y yo tendría un sistema inteligente que el KPI, o sea, el indicador que yo quiero es la eficiencia en la soldadura.Ya está.Ahora bien, si estamos hablando en el domínio en el que yo lo que busco es, por ejemplo,un asistente que establece una relación con una persona,lo que busco es esos criterios de evitar el malestar, el sufrimiento.Y claro, son KPIs que quizá tradicionalmente en informática no hemos manejado.Porque en informática ¿qué hemos manejado toda la vida?Pues el throughput o los bytes por segundo o cosas así.Pero en informática o la gente que venimos tradicionalmente de inteligencia artificialno hemos manejado estos indicadores, pero ahora son los que hay que manejar.Si tienes una aplicación tipo chatGPT o chatGPT con cuerpo, lo del figure one, esta compañía que están haciendo ahora.O todos los robots humanoides que están construyendo ahora con LLM montados en la cabeza.Pues al final, ahí ya sí que entras en el mundo en el que lo que necesitas evitar o tienes que tener muy en cuentaes el sufrimiento, el malestar del humano que interacciona con la máquina.Porque está estableciendo relaciones.Así mides en tu framework además, así mides si debe establecerse un diagnóstico.No en cuanto a lo que le pasa a la máquina, sino lo que le pasa a la persona que interactúa con la máquina.Eso es, claro.Porque el sufrimiento...Claro, en el DSM, proviniendo de ese paralelismo, en el DSM original el criterio de la enfermedad mental es el sufrimiento.Es el sufrimiento.Quizá no del propio paciente, sino hay pacientes que ellos no...Los trastornos de personalidad son muy típicos, ¿no?El propio paciente...No, es paciente, quiero decir, está encantado de la vida.Un narcisista jamás te va a decir, no, no, yo estoy mal.¿Qué va? Estás tú mal.Yo estoy perfecto.Pero genera un sufrimiento en su círculo.Entonces, el criterio del sufrimiento es el KPI que se maneja en salud mental, claro.El malestar y el sufrimiento.Pensad en una máquina cuidadora de bebés, ¿vale?Por eso digo que iba a sonar raro, pero a mí me gusta poner este tipo de ejemplos así extremos, ¿no?Que conste que yo no abogo...Disclaimer, no estoy diciendo que nadie deje al bebé solo con la máquina ahora mismo.Yo no lo dejaría, ni con el Tesla, ni con nada, con ninguna inteligencia artificial, ni con XGPT.Pero en el futuro, ¿vale?Si hay unos mecanismos de seguridad, etc.Subtítulos por la comunidad de Amara.org
Leer más

Escúchalo ahora en

Últimas publicaciones del blog

¿Qué son las inserciones y cómo utilizarlas en tu podcast?

Con las inserciones de audio puedes actualizar y promocionar tus contenidos o ...Leer más

Facturar más de 11.000€ en 5 días con un audiocurso – Oriol Roda

Cuando descubrimos a Oriol Roda hace unos meses, alucinamos con los 60.000 sus...Leer más

¿Qué es una red de podcasts y qué ventajas ofrece?

Unirte a una red de podcasts puede beneficiar tus contenidos de diferentes man...Leer más

WAV vs MP3: ¿Cuál es la diferencia y cuál es mejor para tu podcast?

Conocer la diferencia entre los formatos WAV y MP3 es crucial debido al impact...Leer más

Beneficios de crear un podcast si tienes una ONG

¿Tienes una ONG? Estas son tres maneras en las que un podcast puede fortalecer...Leer más

Combinando venta de servicios y productos digitales para llegar a las 6 cifras anuales – Alex Llull

Alex Llull empezó estudiando comunicación audiovisual porque le gustaba comuni...Leer más