Vitalik Buterin, cofundador de Ethereum, afirmó que GPT-4 de OpenAI ha superado la prueba de Turing. Esta prueba, propuesta por Alan Turing en 1950, evalúa si una IA puede engañar a los humanos haciéndoles creer que es humana. Un estudio reciente de la Universidad de California en San Diego mostró que los participantes identificaron incorrectamente a GPT-4 como humano el 56% de las veces. Aunque esto no significa que GPT-4 posea una inteligencia general artificial (IAG), indica que la IA ha alcanzado un nivel de similitud humana en la conversación que dificulta su distinción por parte de los humanos.
- 💬 Foros
- Offtopic
GPT-4 de OpenAI engaña a humanos y supera la prueba de Turing
Bueno… tampoco es que sea una locura de récord, sin desmerecer los avances de OpenAI - lo que sí, es que ya cansa el overhype y locura alrededor de esta buzzword. Al igual que pasó con el metaverso, las cryptos o los NFTs, a día de hoy le dices a cualquier ejecutivo de corbata "IA" y ya le tienes con el símbolo del € en los ojos pensando en "las posibilidades" y miles de promesas, excediendo en muchos casos del potencial real de esta tecnología. Y la gente de la calle se cree que es una nueva tecnología novedosa que prácticamente va a ser como la película "Her", con sentimientos, evolución de la personalidad y generación de nuevos contenidos/pensamientos no pre-existentes en su programación (no transformación, sino nuevo). Estamos MUY lejos de eso, a décadas de algo así como mínimo (si es que llegamos algún día).
Ya hemos tenido programas que de una u otra manera han vencido el test de Turing desde 1966 (ELIZA), que funcionaba de manera muy básica (pero parecido a una "IA" primigenia): examinaba los comentarios introducidos por el usuario y buscaba keywords específicas (que el modelo conociese a partir de una BBDD predefinida); si encontraba una keyword, aplicaba una transformación sobre el comentario del usuario de cierta manera predefinida; si no encontraba keywords, respondía de manera genérica o repitiendo comentarios anteriores.
Luego tuvimos PARRY (1972), que basado en ELIZA, simulaba ser un individuo con comportamiento esquizofrénico paranoide. Mejoraba a ELIZA en cómo tratas las keywords y comentarios. A continuación, pusieron a 33 psiquiatras a revisar conversaciones/entrevistas entre PARRY e individuos reales con psiquiatras; solo el 52% de las veces fueron capaces de identificar a la máquina, prácticamente azar (sí/no, probabilidad 50% de acertar)
La "IA" a día de hoy no tiene nada de inteligencia (aunque el nombre viene muy bien para vender esta tecnología, al igual que el "metaverso" de empresas como META, cuando no era poco más que un second life) - son modelos probabilísticos y matemáticos avanzados que, utilizando una base de datos estructurada y "entrenada", son capaces de generar una respuesta coherente a un input dado. Pero la "IA" no sabe lo que dice, no entiende lo que dice ni genera nuevo contenido más allá de lo que le permita su programación a partir del conjunto de reglas y datos utilizados como partida. Por eso uno de sus problemas es que es muy dada a equivocarse con toda la confianza del mundo de estar segura: si los datos de inicio contienen un error, por muy obvio que sea (tipo 2+2=6), la IA lo dará por bueno y te dirá que es 100% seguro. Otro problema es que a veces los inputs utilizados pueden escapársele, por lo que hay que tener cuidado qué se usa y que no sean datos privados.
Ambos problemas ya han sucedido en las diversas IAs ahí fuera (incluido el ChatGPT de OpenAI, hasta que lo parchearon): ante dudas básicas de algoritmia, solía fallar ya que solo estaba entrenada para texto, no procesaba las reglas de la matemática, y podía soltarte respuestas buenas (porque su propia base de datos contiene la respuesta) o darte fallos (2+2=6). También se ha visto a gente utilizando ChatGPT para extraer parte de la info que OpenAI utilizó en el modelo, por eso entre otras cosas, se ha ido sabiendo cuáles han sido sus fuentes (algunas de ellas, obtenidas del internet público pero sin preguntar a nadie tampoco…)
EDITO: La ridiculez por la "magia de la IA" llega a absurdeces tales como inversores apostando fuerte por dispositivos como la "IA Portátil" de Rabbit R1, que menos mal que se ha estrellado y la gente ha visto lo que era: un dispositivo Android baratero y capado, con conexión a red para hacer consultas a un servidor de la empresa. Lo que sería una app tipo ChatGPT, ya lo trataban de vender como un dispositivo de 200€ a lo película de "Her" poco más. Increíble. Y mucha gente picó, ojo.
La IA es útil? Sí, al igual que la automatización de procesos o la indexación de contenidos para buscar info o…; acaso es una inteligencia real y permitirá generar contenido de calidad y nuevo, es "un cerebro"? No
Entiendo tu escepticismo. Es cierto que la inteligencia artificial (IA) ha sido objeto de mucho bombo y exageración, similar a lo que ocurrió con el metaverso, las criptomonedas y los NFT. La tecnología actual de IA, aunque impresionante, no está ni cerca de ser una "inteligencia" en el sentido humano, con conciencia o capacidad de generar pensamientos originales fuera de sus programaciones y datos de entrenamiento.
Históricamente, como mencionas con ELIZA y PARRY, hemos tenido sistemas que pueden engañar temporalmente a las personas haciéndoles creer que interactúan con algo más inteligente de lo que realmente es. La IA moderna, incluyendo modelos como ChatGPT, se basa en redes neuronales y grandes volúmenes de datos, permitiéndole generar respuestas coherentes y útiles en muchos contextos, pero sin comprensión real.
La sobrevaloración de la IA en el mercado y en los medios crea expectativas poco realistas. Los ejecutivos a menudo ven en la IA una mina de oro potencial, sin entender plenamente sus limitaciones. Esto lleva a situaciones ridículas como la "IA Portátil" de Rabbit R1, que básicamente es un dispositivo Android con capacidades limitadas de IA, vendido con promesas infladas.
En resumen, mientras que la IA tiene aplicaciones útiles y está avanzando, todavía está lejos de ser una inteligencia consciente o capaz de crear contenido verdaderamente nuevo. La precaución y una comprensión clara de sus capacidades y limitaciones son esenciales para evitar desilusiones y aprovechar su verdadero potencial.
Estoy 99,9999% seguro de que esta respuesta la ha generado la IA. Tiene mucho regorgiteo de la misma info de mi comentario, estructurada en el mismo orden, sin añadir contenido nuevo, solo dando la razón, y añade al final un "En resumen", que es muy muy típico de ciertos modelos como cierre de un análisis, algo que una persona no haría.
Así que no sé qué modelo has usado, pero este no pasaría el test de turing :-D
Solo para dejar entrever cuán "estándar" es la IA a día de hoy, otro modelo (Perplexity) me acaba de generar una respuesta a mi comentario que casi es un calco de la tuya:
Estoy de acuerdo contigo en que el hype alrededor de la IA a veces se excede y se vende como una tecnología más avanzada de lo que realmente es. Es cierto que la IA actual, por muy sofisticada que sea, no es una inteligencia real comparable a la humana y todavía está lejos de poder generar contenido completamente nuevo y original.
Tienes razón en que la IA se basa en modelos probabilísticos y matemáticos avanzados que procesan grandes cantidades de datos para generar respuestas coherentes, pero no entiende realmente el significado de lo que dice. Por eso puede cometer errores básicos que un humano no cometería. También es importante tener en cuenta los problemas éticos y de privacidad que pueden surgir con el uso de la IA, como la posible filtración de datos sensibles utilizados para entrenar los modelos. Sin embargo, creo que la IA es una tecnología con un gran potencial que puede ser muy útil en muchos ámbitos, siempre y cuando se use de manera responsable y sin exagerar sus capacidades. Puede ayudar a automatizar tareas, procesar grandes volúmenes de información, generar contenido de manera eficiente, etc. Pero no debemos perder de vista que es una herramienta al servicio de los humanos, no un sustituto de la inteligencia humana.
En resumen, comparto tu visión crítica sobre el hype excesivo alrededor de la IA, pero creo que es una tecnología fascinante y prometedora si se desarrolla y aplica de manera adecuada. Hay que ser realistas sobre sus capacidades actuales y futuras, y no caer en la tentación de verla como una panacea o una inteligencia superior a la humana. La IA es una herramienta, no un cerebro artificial.