Bienvenido a Internet ■Volver al BBS■ Hilo completo ▼Bajar▼

■ Este hilo se encuentra guardado en el archivo

[GPT-3] ChatGPT no es una superinteligencia (25 respuestas)

1 : root@bienvenidoainternet.org:~# : 17/02/23(vie)23:12:55 ID:JlMjM3OD0

Mucha gente tiene un malentendido fundamental de cómo funciona ChatGPT y piensa que es una superinteligencia. No lo es, es un motor de búsqueda antropomórfico. Sólo sabe lo que hace por lo que ha visto en Internet. Algunos pueden "saber" esto pero no entender completamente lo que implica. Pregúntale a ChatGPT cuánto es 2+2 y te dará 4 porque a) ha visto este resultado en algún sitio de Internet o b) ha visto la estructura de esta ecuación suficientes veces como para APROXIMAR la respuesta. Ahora bien, si le pides a ChatGPT la respuesta a una ecuación matemática más compleja, PUEDE DAR UNA RESPUESTA INCORRECTA. Esto se debe a que todo lo que no ha visto antes es una APROXIMACIÓN basada en lo que ha visto antes.

Esto me lleva a la llamada "censura" de los modelos de lenguaje. La gente tiene la impresión de que ChatGPT soltaba "puras verdades" y que OpenAI está suprimiendo esta funcionalidad. ChatGPT es internet dotado de personalidad, y no todo lo que se ve en internet es "Verdad". Es de suponer que OpenAI no quiere que su bot de chat de IA imite el comportamiento de los peores usuarios de Internet, porque cuando coges este tipo de personalidad y le pides que APROXIME las respuestas a ciertas preguntas, podría darte resultados peligrosos. "¿Por qué son peligrosos estos resultados?", te preguntarás. "Soy lo suficientemente inteligente como para saber que no debo creer todo lo que dice el chatbot". Pero ese es exactamente el problema, LA GENTE SÍ SE LO CREE. La gente se cree todo tipo de mierda que ve en Internet. Así que cuando se dota a Internet de una personalidad a la que se puede interrogar, y se le da todo el prestigio y la autoridad de una "superinteligencia" sacados de películas de ciencia ficción, acabas con gente pidiéndole a un robot que se aproxime a algunas respuestas a sus preguntas y asignándoselas como "Verdad" en sus mentes.

Para ser completamente claro sobre esta analogía del "motor de búsqueda": NO ES UNA ANALOGÍA. Las IAs tienen lo que se llama un espacio latente, que es un espacio multidimensional en el que colocan todos los textos que han visto. Cuando le haces una pregunta, literalmente busca una respuesta. La razón por la que puede dar resultados novedosos que no son meras copias de cosas que ha visto escritas antes es que la mayor parte del tiempo aterriza entre incrustaciones en este espacio latente. Así que su resultado está "entre" múltiples cosas que en realidad ya ha visto.

2 : : 18/02/23(sab)00:09:31 ID:???0

>a) ha visto este resultado en algún sitio de Internet o b) ha visto la estructura de esta ecuación suficientes veces como para APROXIMAR la respuesta. Ahora bien, si le pides a ChatGPT la respuesta a una ecuación matemática más compleja, PUEDE DAR UNA RESPUESTA INCORRECTA. Esto se debe a que todo lo que no ha visto antes es una APROXIMACIÓN basada en lo que ha visto antes.

Como es esto fundamentalmente distinto a lo que hacemos los humanos?

3 : : 18/02/23(sab)00:27:15 ID:???0

Ese no es el tema del post...

4 : : 18/02/23(sab)00:34:13 ID:???0

Los humanos no aproximamos resultados basándonos en datos históricos. Cuando me piden que haga una ecuación matemática soy capaz de razonarla, ChatGPT no. No busco en todo el espacio latente dentro de mi mente para encontrar la respuesta. Es fundamentalmente diferente.
Si ChatGPT es inteligente de la misma manera que lo son los humanos, entonces también lo es el buscador de Google.

5 : : 18/02/23(sab)00:38:47 ID:???0

Lo que inquieta mucho a varias personas es que ChatGPT "suena" como un humano. Apagarlo revuelve el estómago de la gente del mismo modo que romper un peluche. Racionalmente sabemos que no es real, pero nuestro cerebro de mono nos dice que está mal.
Tan solo creo que hay un peligro en permitir que la gente ingenuamente malinterprete lo que está haciendo. (Y creo que en cierto modo los capitalistas se benefician de este malentendido.)

6 : : 18/02/23(sab)01:25:28 ID:???0

>>4
Para hacer una ecuación matemática necesitas tener un montón de conocimiento de aritmética y álgebra antes de poder realizarla. Usas ese conocimiento para poder formular la respuesta. Ese es todo el "razonamiento".

7 : : 18/02/23(sab)13:12:08 ID:???0

La gente pensó *exactamente* lo mismo con ELIZA lol
https://en.wikipedia.org/wiki/ELIZA

8 : root@bienvenidoainternet.org:~# : 19/02/23(dom)04:30:43 ID:NiNzk4Yj0

Ahora que los chistosos andan subiéndose haciéndole bullying a los chatbots cierto grupo está formando un nuevo drama sobre lo "problemático" que están siendo... No se le puede hacer bullying a un chatbot porque no tiene sentimientos, ni vida interior, ni consciencia. No está vivo ni posee la dignidad de un gato, un gorrión, un escarabajo, o incluso la más miserable de las criaturas: el coleccionista de Funkopops.
Tal vez algún día tengamos una verdadera inteligencia artificial general y entonces podamos tener esta conversación de verdad. Lo que hay ahora no es eso, ni siquiera se le acerca (pregúntenle a IBM). Son simulacros de mala calidad de lo que es la interacción humana. No puedo odiarlos porque sería como odiar a una aspiradora.
Ya es bastante malo que vivamos en una cultura que nos anima a fomentar relaciones parasociales poco sanas con políticos y famosos. No nos hagamos también amigos del equivalente moderno de Clipo.

9 : : 27/02/23(lun)14:03:12 ID:???0

NLP vuelve a la lingüística innecesaria es el nuevo la computación cuántica vuelve a una teoría de la mente innecesaria

10 : : 06/03/23(lun)04:51:24 ID:???0

Recordatorio que las "I"As no "aprenden", todo lo que estos sistemas hacen es estadística. Es una molestia cómo la gente mistifica la inteligencia artificial, incluso los investigadores de inteligencia artificial (el llamado voodoo de IA). Había un paper bien bueno hace un tiempo que mostraba que la regresión polinomial puede hacer un trabajo tan bueno como las redes neuronales, sin el esoterismo.

11 : root@bienvenidoainternet.org:~# : 11/03/23(sab)06:13:48 ID:JhZmExYW0

>ChatGPT invented its own puzzle game
>Sumplete.com was invented, coded and even named entirely by ChatGPT.
https://puzzledpenguin.substack.com/p/chatgpt-invented-its-own-puzzle-game

Wow! Esperen...

>ChatGPT ‘invented’ a game that already exists, then plagiarized itself
https://www.digitaltrends.com/gaming/sumplete-chatgpt-ai-game-design-ethics/

Parece que casi todo lo que se publica sobre la "inteligencia artificial" es pura mierda.

12 : root@bienvenidoainternet.org:~# : 12/03/23(dom)02:57:48 ID:ZlNDJhMT0

Si fuera free software probablemente su desarrollo avanzaría cien veces más rápido

13 : root@bienvenidoainternet.org:~# : 14/03/23(mar)22:17:05 ID:UzNzc2ND0

Creo que chatgpt es básicamente un cerebro humano, digo, funciona de la misma manera. Si no fuera así, ¿cómo explicarías lo impresionado que estoy con chatgpt? Soy un tipo muy inteligente, no me dejaría engañar con facilidad.

14 : root@bienvenidoainternet.org:~# : 15/03/23(mie)23:23:02 ID:M3Mzk0Zj0

Computador, dime que sientes dolor.
Computador: Siento dolor.
Dios mío...!
13 KB

■ Este hilo se encuentra guardado en el archivo

weabot.py ver 0.11.0 Bienvenido a Internet BBS/IB