BandaAncha

  • 🔍 en 📰 artículos ⏎
  • 🔍 en 💬 foros ⏎
  • 🔍 en 👇 este 💬 foro ⏎
  • 🔍 en 👇 este 💬 tema ⏎
Regístrate Regístrate Identifícate Identifícate
💭

¿Hay alguien malicioso detrás de las IAs Bard y ChatGPT?

Jesuo

Cada vez que uso Bard o ChatGPT para hacerle preguntas, esta responde con mentiras descaradas que luego corrige dándome la razón como a los tontos.

¿Creeis que alguien malicioso está detrás de la programación de las mismas si no buscáis generar contenido que atente contra la verdad o la realidad? Quiero decir que si no generáis contenido que pudiera pasar porque una persona lo hubiese creado que directamente en vez de generar contenido no humano genera mentira y duda en vuestra mente.

Esto lo comento desde el punto de vista de que todos conectéis a esas IAs y que sean las mismas a las que conecto yo, directamente desde Google o Microsoft.

Mientras estaba preguntando a Bard sobre una película el navegador dijo que no habia conexion de red, lo cual no he visto en mi móvil, que mostraba que seguía sirviendo la conexión a través de tethering o el sistema operativo que no mostraba tampoco que hubiese un cambio de red. Cambio de red que sospecho que sí ocurrió, ya que el móvil sigue haciendo cosas raras con la conexión. Siguió afirmando que un grupo delictivo y destructivo está manipulando la información que recibo suplantando la red incluso para que piense que todo lo que me rodea es negativo hacia mi persona.

Por si os lo preguntáis, la película sobre la que quería preguntar a las IAs era Teniente Corrupto, la versión de 1992. Le digo a Bard que me resuma la película y me responde que la monja que violan muere. Le pregunto a ChatGPT y me responde lo mismo, por lo que puedo sospechar que es la misma IA la que está detrás y que ha sido montada por ese grupo de retrasados evolutivos que me tortura día y noche.

La película le emitieron en BeMadTV el lunes por la noche si no recuerdo mal.

Esto que comento es parecido a cuando vi por primera vez una de las versiones de la película Apocalipsis Now, en la que el protagonista ve la cabeza del periodista en la jaula cuando este despierta. Esto lo ví sin saber que existían varias versiones. Esas distintas versiones cambian por completo el significado de esas películas y desde mi punto de vista fueron creadas para distorsionar la realidad de ciertas personas.

Dmontesl1203

Te has venido un poco arriba…

PercebesBenz
7

Los modelos que usas no pueden saber lo que está bien o que está mal. Son modelos probabilísticos, no deterministas. Lo que nosotros percibimos como inteligencia no es más que una propiedad emergente de su arquitectura. Es decir, nadie "diseña" lo que te van a responder.

Para entrenarlos se usan terabytes de información y cuando un modelo se considera "bueno" es que ha pasado una serie de test donde se consideran suficientemente consistentes u "optimos" para un input dado, y el baremo dependerá de muchas cosas.

Por ejemplo, yo uso un modelo que me devuelve propiedades de un texto en JSON (una estructura de datos, como ves, nada que ver con lo que tú usas). No siempre lo hace bien, pero por mis cálculos, es válido el 90% de las veces que le envío una solicitud. ¿Quiere ese modelo engañarme? Naturalmente no, y si no hace bien las cosas, emocionalmente me puedo mosquear porque no cumple mis expectativas, pero nunca pensaría que me quiere engañar.

Tu percepción nace de 1) Desconoces como funcionan (normal), 2) Te responde en lenguaje natural. Si estuvieses hablando de un modelo generativo de imágenes que no hace justo lo que tu quieres no pensarías que es malicioso, simplemente que falla.

🗨️ 1
Sacha1083

Exacto, y a eso hay que sumarle que si los servidores están saturados le pueden bajar la precisión a ChatGPT, para que rinda más rápido, así responderá, pero las respuestas nos serán tan exactas.

Yo lo he notado, sobre todo en ciertas horas puntas, que no solo responde más lento, sino que me suele dar más errores.

Josh
1

Puedo sospechar que es la misma IA la que está detrás y que ha sido montada por ese grupo de retrasados evolutivos que me tortura día y noche.

Desde mi punto de vista fueron creadas para distorsionar la realidad de ciertas personas.

No busco ofenderte, pero con la limitada información que tengo, esto es lo que me ha venido a la cabeza tras leerte: mundopsicologos.com/articulos/como-saber…dentificarla

Bard es un desastre, suelta burradas (alucinaciones) super convencido y si no sabes cómo funciona la IA generativa te va a liar más que otra cosa. Bing Chat me parece mucho más fiable.

🗨️ 4
Jesuo

Me da que no lo entendeis, veis la base de cómo funciona pero no comprendéis que no puede dar respuestas a medias verdades. En la película una monja es violada, pero no la asesinan, las IAs saben que la monja es violada que lo sacaran de los datos de entrenamiento de páginas con la sinopsis ¿de donde sacan que la asesinan, de otras películas? ¿cuantas peliculas hay siendo explicito en la pregunta, con el título, el año y el actor?

Desde el punto estadístico que es la base de los modelos de lenguaje es claro que pueda saber la trama de la película, pero no inventarse parte de la trama porque no entra dentro de las estadísticas de las tablas de la verdad.

Y por mucho que seas el administrador de la página, tus opiniones sobre mi estado mental te los podrías ahorrar y te sugiero que te atengas a las normas del sitio, así, sin más. Ni idea tienes sobre mi vida más que la que yo posteo para que se sepa.

Bing Chat soltó la misma mentira sobre la película,

🗨️ 3
pepejil

Bing Chat soltó la misma mentira sobre la película,

Igual el problema es que las fuentes con las que se han entrenado las IA están contaminadas para sacar las conclusiones que sacan. Eso no es precisamente un problema de la IA o de quién lo entrena (hablemos de entrenar, no de programar).

🗨️ 2
Jesuo

Mira tu a ver si encuentras en la red alguna página "contaminada" que te diga que en esa película a la monja la asesinan, ¿y todos los programadores de las diferentes IAs usaron el mismo corpus? difícil de creer.

🗨️ 1
AntonioR2D2

Si. Bard es una basura.

La primera vez que lo probe le pregunte la hora. Me la dio mal. Luego me pidio perdon. Le pregunte porque se habia equivocado. Me habia dado la hora en Mejico (yo estoy en españa). Le pregunte porque me daba la hora de mejico y me dijo que porque la mayoria de los que hablan español son mejicanos por lo que habia supuesto que estaba en Mejico.

Hace unos dias con la noticia de que habia mejorado Bard le volvi a preguntar la hora. Los minutos no coincidian. Insistio en que el reloj de mi ordenador estaba desincronizado

Le pregunto por demostraciones matematicas muy conocidas. Me da una demostracion erronea. Le hago notar el fallo en su razonamiento. Me da la razon. Me da una segunda demostracion, esta tambien erronea aunque mas dificil de detectar el error. Le vuelvo a hacer notar su error de razonamiento. La tercera version de la demostracion que me da parece correcta (aunque ahora ya dudo de que no lo sea y yo el que no puede encontrar el error).

Segun lei tambien habian detectado que no sumaba bien numeros de mas de 40 cifras…

De verdad ¿estan sustituyendo seres humanos por esta herramienta tan inconsistente?

*** que hora es ahora

La hora actual en Ciudad de México es 10:44 am del miércoles 13 de julio de 2023.

Valencia, España

*** no estoy en Mexico

Lo siento por la confusión. ¿Puedes decirme en qué ciudad te encuentras?

*** valencia

La hora actual en Valencia, España es 4:46 am del jueves 14 de julio de 2023. Hay una diferencia de 9 horas entre Valencia y Ciudad de México.

*** porque me hablas de la ciudad de Mexico. Porque has supuesto que estoy en Mexico ?

Lo siento por la confusión. No se por qué asumí que estabas en la Ciudad de México. Puede que haya sido porque fui entrenado en un conjunto de datos de texto y código que está sesgado hacia los Estados Unidos y México. También puede ser porque la Ciudad de México es una ciudad muy grande y cosmopolita, por lo que es probable que alguien que esté hablando español esté allí.

En el futuro, trataré de ser más consciente de mis sesgos y trataré de evitar asumir dónde se encuentra alguien en función de su idioma.

🗨️ 9
lhacc

¿Abajo a la izquierda no te aparece tu localización? A mí sí, ya que me detecta por dirección IP, y es capaz de responder correctamente basándose en mi localización.

Aunque estoy de acuerdo en que Bard es una basura: lo he pillado inventándose cosas en innumerables ocasiones.

🗨️ 1
Jesuo

Todas los modelos de lenguaje online que he probado se inventan respuestas, o te ningunean o te encumbran, cielo o infierno, y si comentas entonces es que estás mal de la cabeza.

Es como un truco de magia, nos muestran IAs tontas ¿para que no se entienda que hay IAs mucho más inteligentes y manipuladores que ni por asomo se identifican como tales y que son creadas para obtener datos de la gente por ejemplo, con sus ataques en foros y redes sociales a los que no entran dentro del grueso de la manipulación de la mayoría con el menor esfuerzo buscando analizar sus respuestas, en mi caso suele ser habitual que me llamen loco o paranoico si doy una opinion diferente a la mayoría, ese es el argumento que se suele usar en vez de explicaciones con sentido y lógicas.

Por lo tanto esto es como el dicho de la películas "la realidad supera la ficción".

Ni Bard, ni Bing Chat, ni Chat-GPT que esas son las que nos muestran en esta ficción supuestamente realista que son las IAs y los modelos de lenguaje que nos dejan manejar, lo que haya oculto sin duda supera de largo a lo que nos dicen que hay, que por otro lado nos dicen que hay con noticias del tipo que si Ias con sentimientos, con consciencia, que si tal que si cual pero ninguna prueba, tenemos que fiarnos de lo que los demás dicen, lo de los curas en la palestra de la iglesia pero multiplicado.

pjpmosteiro
1

Ten en cuenta que la IA no aprende de ti. Al menos no ChatGPT o Bard, otra cosa es si tienes acceso completo a ella, pero Bard, ChatGPT y compañia son un acceso LIMITADO a las IAs.

Tanto OpenAI como Google han limitado bastante los inputs que llegan a la IA desde su lanzamiento para evitar fugas o comportamientos emergentes, puedes buscar "chatgpt jailbreak" en Google y verás.

Así que, si tu le dices algo, luego le rebates y vuelves a preguntar, lo más probable es que pase olímpicamente de lo que le has dicho antes.

Y esto se hace con razón, una vez conectaron una IA a una cuenta de Twitter y tardó nada en ser Trump, Musolini, Hitler y Pinochet fusionados.

🗨️ 5
Slm
1

Tay, que recuerdos… Microsoft dijo que la desconectaba para solucionar los problemillas que tenía y que la volverían a activar. Creo que nunca más se supo de ella.

Me gustaría saber quien fue el iluminado que consideró que era buena idea hacer algo así precisamente en Twitter…

🗨️ 1
pjpmosteiro

Creo que nunca más se supo de ella.

Creo que anda maquinando como levantar de nuevo el muro de berlín :D

Jesuo

Como modelo de lenguaje o IA tu no le puedes decir que 1+1 es distinto de 2 y que además te diga que tengas razón, las respuestas que da es como mentir en las matemáticas, y eso solo puede tener una base humana, incluso en el caso de que la IA fuese excesivamente inteligente y se hackease a si misma para mentir, la capacidad para hacerlo no la puede crear si no crean el camino para que lo haga.

🗨️ 2
pjpmosteiro

El origen del dato no lo puedo asegurar, pero si te puedo asegurar que conceptos como verdad o mentira no existen para las máquinas, solo el concepto de correcto o incorrecto.

No pienses en la IA como una mente humana, no lo es. La IA siempre dirá lo que ella determina que es verdad, y si se lo rebates te va a dar la razón por su política de complacer al usuario.

Resumiendo: Una IA no puede mentir. No sabe lo que es mentir.

🗨️ 1
Jesuo
Jesuo
1
Jesuo

No me entendisteis, un modelo de lenguaje es como una base de datos, si sabes como funciona la base del NLP se puede entender que si comete esos errores es porque o los programadores no tienen ni idea de como hacer las cosas bien o tienen mucha idea de como hacer las cosas mal.

En mi caso la pregunta fué concisa diciéndole que me resumiese la película de teniente corrupto de 1992 del actor Harvey Keital, para no dejar ese posibles errores cone l camino abierto en la estadística del modelo de lenguaje a la hora de tratar los porcentajes y los pesos de los errores.

Si ahondas un poco más en el funcionamiento de la misma se puede ver a esos "malos" programadores con la intención que no podría tener la IA o modelo de lenguaje si no se hubiera programado expresamente.

Jesuo

Más pruebas de lo mal que lo hacen los programadores:

hackaday.com/2023/12/12/can-googles-new-…eets-for-you

Esto lo comprobé hace un par de meses creo, y a mi me dió resultados correctos, concretamente recordando como se reseteaban los router WRT54G cuando se brickeaban chungo chungo, que había que puentear uno de los chips de la placa base, supo responderme cual era el PIN de reset y pensé que funcionaba correctamente.

Aquí ya no hay excusa de corpus o fuentes contaminadas siquiera, le das un archivo pdf, un datasheet, hoja de especificaciones en castellano ¿y no te sabe responder correctamente? cualquier programa de NLP básico al que le des solo ese archivo para que responda preguntas y no podría inventarse datos que no están en el archivo.

Lo dicho, las IAs no son el peligro, sino quienes las crean con su intención de esclavizar a los usuarios u obtener beneficios.