BandaAncha

  • 🔍 en 📰 artículos ⏎
  • 🔍 en 💬 foros ⏎
  • 🔍 en 👇 este 💬 foro ⏎
  • 🔍 en 👇 este 💬 tema ⏎
Regístrate Regístrate Identifícate Identifícate

¿Cómo Google Gémini puede mentir como un bellaco?

P B Fierro
1

Estaba viendo un documental sobre el monte Rushmore, en el que hablaban sobre una cámara con una caja de titanio con unos documentos dentro.

Decidí probar Gémini preguntándole que había en la caja de titanio del monte Rushmore y en una explicación bastante extensa me dijo que estaba vacía…

g.co/gemini/share/e137c9ab727b (Luego)

Moraleja: No hay que fiarse mucho de la IA.

lhacc
9

[contenido retirado]

🗨️ 5
P B Fierro

Lo que me parece raro es primero: Que la información correcta aparece en muchas páginas, entre ellas wikipedia.

Segundo: Que si le dices que la información no es correcta, entonces te da otra que si lo es, pero le vuelves a preguntar y otra vez dice lo que está mal.

Y lo de que miente, es una forma de hablar tan solo…

🗨️ 1
Schezard
1

Es lo que tiene cuando entrenas un modelo con dos premisas.

Lo más repetido es "correcto" y nunca digas "eso no lo sé".

Si entrenas con todo internet sin control, la primera premisa te hace el meme o cospiranoya como primera respuesta correcta, y la segunda, que te siga dando respuestas hasta que alguna te guste.

Cuando usa modelos que puedan no saber algo y con fuentes acotadas, pues muchas cosas no las sabe, pero el índice de acierto en lo que sabe está muy por encima de un teleoperador medio.

Y ahí es donde van a estar imparable. Que hoy son teleoperadores, pero ya empiezan a ser mejor que el desarrollador medio, analista, etc.

Y en breve pues cualquier trabajo donde la fuente de conocimiento verificados sean muy expensas (abogados, traducción, diseño,etc)

pjpmosteiro

Aun lo matizaria más:

Para mentir hay que saber que es una verdad y una mentira.

Una IA es un ordenador. No sabe mentir, porque no conoce el concepto de la verdad o la mentira. Puede decirte que 1 +1 es 2 y a la vez que no, porque 2 no tiene que ser necesariamente 1+1, no sé si me explico…

Las IA solamente interpretan información a partir de miles de bases de datos. Me gusta imaginarlas como una vista gigante de SQL.

Ah, y la IA alucina. Mucho.

🗨️ 2
lhacc
1

[contenido retirado]

🗨️ 1
pjpmosteiro

Noooonononono, mi relación con SQL termino hace 2 años y no pienso retomarla, acabe de los inner join, las claves foráneas y las vistas hasta más allá de la luna 🤣.

PD: En serio alguien ha planteado un llm en SQL? Con la de recursos que quema para indexar?

Leonés R

El día del juicio final llegará cuando la inteligencia artificial se base en las aportaciones y conocimientos de los ejpertos de hoy en día. Ejpertos que saben poco más que buscar en Google, la Wikipedia, las redes suciales y tomar por cierto todo sin cuestionarse los resultados o contrastar información con otras fuentes.

🗨️ 5
P B Fierro

Si al menos sacara la información de la wikipedia… Pero parece que ni eso.

Eso sí, me dejó flipado lo convincente y extenso de la respuesta totalmente errónea.

🗨️ 4
aeri
1

En verdad ese es su punto fuerte, está entrenado para dar una buena conversación al igual que los LLM actuales y no para proporcionar información veraz, solamente predice la siguiente palabra.

🗨️ 3
lhacc
3

[contenido retirado]

🗨️ 2
Aell6782
Aell6782
Oihalitz
1

A ver, que te esperas de una IA que le mandas que te haga una foto de Alemanes en la segunda guerra mundial y te lo llenan de gente de color…

Aell6782
2

Nada nuevo, te invito a probar Chat Gpt plus premium ultra con asteroides , dejarte 25€ al mes y que te vacile … tipo decirle "Solo revisa estos enlaces, dime ok y memoriza" y el idiota decirme "ok y memoriza"

Hablamos de una ia en una fase muy muy inicial, donde si tiene mucha, mucha documentación o son ciertas tareas ya documentadas en internet, puede hacerlas del tirón sin margen de error, pero si buscas lógica humana o que te haga análisis específicos o que simplemente te de información que no tenga super mamada de github , estás perdido.

Puede tirarse rato dando vueltas a explicaciones erróneas o tocar la campana y acertar a la primera.

Luego para otras cosas, con buenos prompts , hace el apaño y ahorra mucho tiempo, pero no es para nada perfecto ni tal "inteligencia" es simplemente calculo, comparación y ya.

PercebesBenz
1

Las LLMs no mienten, tenéis que hacerlos a la idea de que no piensan como vosotros.

🗨️ 1
aliveintheseptictank

Literalmente no piensan. Repiten como un loro lo que han "aprendido" pero si la información o el contexto no es el mismo, la respuesta será incorrecta. Por ahora no pueden "pensar"

legible

Un modelo de este tipo básicamente lo que hace es juntar palabras que suenan bien juntas. Eso no implica que sean verdaderas, sobre todo porque:

a) No tiene certeza de que el modelo con el que se ha entrenado está formado solo con verdades

b) No tiene certeza de que las palabras que junte también se correspondan con la realidad