Bueno… tampoco es que sea una locura de récord, sin desmerecer los avances de OpenAI - lo que sí, es que ya cansa el overhype y locura alrededor de esta buzzword. Al igual que pasó con el metaverso, las cryptos o los NFTs, a día de hoy le dices a cualquier ejecutivo de corbata "IA" y ya le tienes con el símbolo del € en los ojos pensando en "las posibilidades" y miles de promesas, excediendo en muchos casos del potencial real de esta tecnología. Y la gente de la calle se cree que es una nueva tecnología novedosa que prácticamente va a ser como la película "Her", con sentimientos, evolución de la personalidad y generación de nuevos contenidos/pensamientos no pre-existentes en su programación (no transformación, sino nuevo). Estamos MUY lejos de eso, a décadas de algo así como mínimo (si es que llegamos algún día).
Ya hemos tenido programas que de una u otra manera han vencido el test de Turing desde 1966 (ELIZA), que funcionaba de manera muy básica (pero parecido a una "IA" primigenia): examinaba los comentarios introducidos por el usuario y buscaba keywords específicas (que el modelo conociese a partir de una BBDD predefinida); si encontraba una keyword, aplicaba una transformación sobre el comentario del usuario de cierta manera predefinida; si no encontraba keywords, respondía de manera genérica o repitiendo comentarios anteriores.
Luego tuvimos PARRY (1972), que basado en ELIZA, simulaba ser un individuo con comportamiento esquizofrénico paranoide. Mejoraba a ELIZA en cómo tratas las keywords y comentarios. A continuación, pusieron a 33 psiquiatras a revisar conversaciones/entrevistas entre PARRY e individuos reales con psiquiatras; solo el 52% de las veces fueron capaces de identificar a la máquina, prácticamente azar (sí/no, probabilidad 50% de acertar)
La "IA" a día de hoy no tiene nada de inteligencia (aunque el nombre viene muy bien para vender esta tecnología, al igual que el "metaverso" de empresas como META, cuando no era poco más que un second life) - son modelos probabilísticos y matemáticos avanzados que, utilizando una base de datos estructurada y "entrenada", son capaces de generar una respuesta coherente a un input dado. Pero la "IA" no sabe lo que dice, no entiende lo que dice ni genera nuevo contenido más allá de lo que le permita su programación a partir del conjunto de reglas y datos utilizados como partida. Por eso uno de sus problemas es que es muy dada a equivocarse con toda la confianza del mundo de estar segura: si los datos de inicio contienen un error, por muy obvio que sea (tipo 2+2=6), la IA lo dará por bueno y te dirá que es 100% seguro. Otro problema es que a veces los inputs utilizados pueden escapársele, por lo que hay que tener cuidado qué se usa y que no sean datos privados.
Ambos problemas ya han sucedido en las diversas IAs ahí fuera (incluido el ChatGPT de OpenAI, hasta que lo parchearon): ante dudas básicas de algoritmia, solía fallar ya que solo estaba entrenada para texto, no procesaba las reglas de la matemática, y podía soltarte respuestas buenas (porque su propia base de datos contiene la respuesta) o darte fallos (2+2=6). También se ha visto a gente utilizando ChatGPT para extraer parte de la info que OpenAI utilizó en el modelo, por eso entre otras cosas, se ha ido sabiendo cuáles han sido sus fuentes (algunas de ellas, obtenidas del internet público pero sin preguntar a nadie tampoco…)
EDITO: La ridiculez por la "magia de la IA" llega a absurdeces tales como inversores apostando fuerte por dispositivos como la "IA Portátil" de Rabbit R1, que menos mal que se ha estrellado y la gente ha visto lo que era: un dispositivo Android baratero y capado, con conexión a red para hacer consultas a un servidor de la empresa. Lo que sería una app tipo ChatGPT, ya lo trataban de vender como un dispositivo de 200€ a lo película de "Her" poco más. Increíble. Y mucha gente picó, ojo.
La IA es útil? Sí, al igual que la automatización de procesos o la indexación de contenidos para buscar info o…; acaso es una inteligencia real y permitirá generar contenido de calidad y nuevo, es "un cerebro"? No