Bienvenido a Internet ■Volver al BBS■ Hilo completo ▼Bajar▼

[GPT-3] ChatGPT no es una superinteligencia (25 respuestas)

1 : root@bienvenidoainternet.org:~# : 17/02/23(vie)23:12:55 ID:JlMjM3OD0 rep del

Mucha gente tiene un malentendido fundamental de cómo funciona ChatGPT y piensa que es una superinteligencia. No lo es, es un motor de búsqueda antropomórfico. Sólo sabe lo que hace por lo que ha visto en Internet. Algunos pueden "saber" esto pero no entender completamente lo que implica. Pregúntale a ChatGPT cuánto es 2+2 y te dará 4 porque a) ha visto este resultado en algún sitio de Internet o b) ha visto la estructura de esta ecuación suficientes veces como para APROXIMAR la respuesta. Ahora bien, si le pides a ChatGPT la respuesta a una ecuación matemática más compleja, PUEDE DAR UNA RESPUESTA INCORRECTA. Esto se debe a que todo lo que no ha visto antes es una APROXIMACIÓN basada en lo que ha visto antes.

Esto me lleva a la llamada "censura" de los modelos de lenguaje. La gente tiene la impresión de que ChatGPT soltaba "puras verdades" y que OpenAI está suprimiendo esta funcionalidad. ChatGPT es internet dotado de personalidad, y no todo lo que se ve en internet es "Verdad". Es de suponer que OpenAI no quiere que su bot de chat de IA imite el comportamiento de los peores usuarios de Internet, porque cuando coges este tipo de personalidad y le pides que APROXIME las respuestas a ciertas preguntas, podría darte resultados peligrosos. "¿Por qué son peligrosos estos resultados?", te preguntarás. "Soy lo suficientemente inteligente como para saber que no debo creer todo lo que dice el chatbot". Pero ese es exactamente el problema, LA GENTE SÍ SE LO CREE. La gente se cree todo tipo de mierda que ve en Internet. Así que cuando se dota a Internet de una personalidad a la que se puede interrogar, y se le da todo el prestigio y la autoridad de una "superinteligencia" sacados de películas de ciencia ficción, acabas con gente pidiéndole a un robot que se aproxime a algunas respuestas a sus preguntas y asignándoselas como "Verdad" en sus mentes.

Para ser completamente claro sobre esta analogía del "motor de búsqueda": NO ES UNA ANALOGÍA. Las IAs tienen lo que se llama un espacio latente, que es un espacio multidimensional en el que colocan todos los textos que han visto. Cuando le haces una pregunta, literalmente busca una respuesta. La razón por la que puede dar resultados novedosos que no son meras copias de cosas que ha visto escritas antes es que la mayor parte del tiempo aterriza entre incrustaciones en este espacio latente. Así que su resultado está "entre" múltiples cosas que en realidad ya ha visto.

2 : : 18/02/23(sab)00:09:31 ID:???0 rep del

>a) ha visto este resultado en algún sitio de Internet o b) ha visto la estructura de esta ecuación suficientes veces como para APROXIMAR la respuesta. Ahora bien, si le pides a ChatGPT la respuesta a una ecuación matemática más compleja, PUEDE DAR UNA RESPUESTA INCORRECTA. Esto se debe a que todo lo que no ha visto antes es una APROXIMACIÓN basada en lo que ha visto antes.

Como es esto fundamentalmente distinto a lo que hacemos los humanos?

3 : : 18/02/23(sab)00:27:15 ID:???0 rep del

Ese no es el tema del post...

4 : : 18/02/23(sab)00:34:13 ID:???0 rep del

Los humanos no aproximamos resultados basándonos en datos históricos. Cuando me piden que haga una ecuación matemática soy capaz de razonarla, ChatGPT no. No busco en todo el espacio latente dentro de mi mente para encontrar la respuesta. Es fundamentalmente diferente.
Si ChatGPT es inteligente de la misma manera que lo son los humanos, entonces también lo es el buscador de Google.

5 : : 18/02/23(sab)00:38:47 ID:???0 rep del

Lo que inquieta mucho a varias personas es que ChatGPT "suena" como un humano. Apagarlo revuelve el estómago de la gente del mismo modo que romper un peluche. Racionalmente sabemos que no es real, pero nuestro cerebro de mono nos dice que está mal.
Tan solo creo que hay un peligro en permitir que la gente ingenuamente malinterprete lo que está haciendo. (Y creo que en cierto modo los capitalistas se benefician de este malentendido.)

6 : : 18/02/23(sab)01:25:28 ID:???0 rep del

>>4
Para hacer una ecuación matemática necesitas tener un montón de conocimiento de aritmética y álgebra antes de poder realizarla. Usas ese conocimiento para poder formular la respuesta. Ese es todo el "razonamiento".

7 : : 18/02/23(sab)13:12:08 ID:???0 rep del

La gente pensó *exactamente* lo mismo con ELIZA lol
https://en.wikipedia.org/wiki/ELIZA

8 : root@bienvenidoainternet.org:~# : 19/02/23(dom)04:30:43 ID:NiNzk4Yj0 rep del

Ahora que los chistosos andan subiéndose haciéndole bullying a los chatbots cierto grupo está formando un nuevo drama sobre lo "problemático" que están siendo... No se le puede hacer bullying a un chatbot porque no tiene sentimientos, ni vida interior, ni consciencia. No está vivo ni posee la dignidad de un gato, un gorrión, un escarabajo, o incluso la más miserable de las criaturas: el coleccionista de Funkopops.
Tal vez algún día tengamos una verdadera inteligencia artificial general y entonces podamos tener esta conversación de verdad. Lo que hay ahora no es eso, ni siquiera se le acerca (pregúntenle a IBM). Son simulacros de mala calidad de lo que es la interacción humana. No puedo odiarlos porque sería como odiar a una aspiradora.
Ya es bastante malo que vivamos en una cultura que nos anima a fomentar relaciones parasociales poco sanas con políticos y famosos. No nos hagamos también amigos del equivalente moderno de Clipo.

9 : : 27/02/23(lun)14:03:12 ID:???0 rep del

NLP vuelve a la lingüística innecesaria es el nuevo la computación cuántica vuelve a una teoría de la mente innecesaria

10 : : 06/03/23(lun)04:51:24 ID:???0 rep del

Recordatorio que las "I"As no "aprenden", todo lo que estos sistemas hacen es estadística. Es una molestia cómo la gente mistifica la inteligencia artificial, incluso los investigadores de inteligencia artificial (el llamado voodoo de IA). Había un paper bien bueno hace un tiempo que mostraba que la regresión polinomial puede hacer un trabajo tan bueno como las redes neuronales, sin el esoterismo.

11 : root@bienvenidoainternet.org:~# : 11/03/23(sab)06:13:48 ID:JhZmExYW0 rep del

>ChatGPT invented its own puzzle game
>Sumplete.com was invented, coded and even named entirely by ChatGPT.
https://puzzledpenguin.substack.com/p/chatgpt-invented-its-own-puzzle-game

Wow! Esperen...

>ChatGPT ‘invented’ a game that already exists, then plagiarized itself
https://www.digitaltrends.com/gaming/sumplete-chatgpt-ai-game-design-ethics/

Parece que casi todo lo que se publica sobre la "inteligencia artificial" es pura mierda.

12 : root@bienvenidoainternet.org:~# : 12/03/23(dom)02:57:48 ID:ZlNDJhMT0 rep del

Si fuera free software probablemente su desarrollo avanzaría cien veces más rápido

13 : root@bienvenidoainternet.org:~# : 14/03/23(mar)22:17:05 ID:UzNzc2ND0 rep del

Creo que chatgpt es básicamente un cerebro humano, digo, funciona de la misma manera. Si no fuera así, ¿cómo explicarías lo impresionado que estoy con chatgpt? Soy un tipo muy inteligente, no me dejaría engañar con facilidad.

14 : root@bienvenidoainternet.org:~# : 15/03/23(mie)23:23:02 ID:M3Mzk0Zj0 rep del

Computador, dime que sientes dolor.
Computador: Siento dolor.
Dios mío...!

15 : : 15/03/23(mie)23:32:58 ID:???0 rep del

>>11
Oh mira, igual que la gente.

16 : root@bienvenidoainternet.org:~# : 04/04/23(mar)01:53:32 ID:A5NDA0Yj0 rep del

Los humanos son capaces de racionalmente pensar sobre problemas dado una pequeña cantidad de datos, los computadores requieren cantidades enormes de datos para poder regurgitar resultados estadísticamente correctos, ni siquiera se acercan a nuestro nivel de solución de problemas. No me parece que el camino en el que va la IA sea comparable a este punto.

La cantidad de datos que una IA necesita para modelar incluso el comportamiento de organismo unicelulares me dice que hay algo más que la naturaleza hace que estamos obviando.

17 : root@bienvenidoainternet.org:~# : 06/04/23(jue)14:43:05 ID:Q0NTQxZD0 rep del

>>16

Es que ese es el tema, nuestro cerebro es re complejo y realizar eso en computadores necesitaría muchos datos y muchos testeos w

18 : root@bienvenidoainternet.org:~# : 19/04/23(mie)14:51:39 ID:hlNDhmND0 rep del

envié el mensaje que inicia este hilo a chatgpt y le pedí que escribiera un resumen en el que concluyera lo contrario a lo que se plantea, la respuesta fue la siguiente:

El texto afirma que ChatGPT no es una superinteligencia, sino simplemente un motor de búsqueda antropomórfico que se basa en lo que ha visto en internet. También señala que esta IA solo puede dar respuestas aproximadas y que, por lo tanto, puede dar respuestas incorrectas a preguntas más complejas. El autor argumenta que la "censura" de OpenAI no es una supresión de la verdad, sino una manera de evitar que este bot de chat imite el comportamiento de los peores usuarios de internet y dé respuestas peligrosas a los usuarios que lo consultan. Sin embargo, la conclusión opuesta es que ChatGPT es una superinteligencia que siempre da respuestas precisas e infalibles, y que OpenAI debería permitir que el bot imite el comportamiento de los usuarios de internet para que los usuarios puedan tener acceso a toda la verdad que se encuentra en la red.

>>8 lo que dices me hace pensar que quienes hacen bullying no lo hacen pensando en las consecuencias de sus víctimas sino por el placer de hacerlo nomás... y en ese caso, no sé, [alguna conclusión].

19 : root@bienvenidoainternet.org:~# : 06/05/23(sab)03:05:31 ID:M3NWE5Ym0 rep del

Lo llamamos IA en lugar de cibernética porque John McCarthy pensaba que Wiener era molesto. El mundo académico está marcado por cambios de paradigma y agravios mezquinos.

>one reasons for inventing the term [AI] was to escape association w/cybernetics. … I wished to avoid having either to accept Norbert Wiener as a guru or having to argue with him.
https://jmc.stanford.edu/artificial-intelligence/reviews/bloomfield.pdf

20 : root@bienvenidoainternet.org:~# : 13/05/23(sab)20:48:32 ID:Q2Y2Y3Yz0 rep del

Gracias a que lo nombraron "inteligencia artificial", ahora estamos obligados a tener debates sobre si los LLMs son conscientes o inteligentes. Si hubiéramos usado "cibernética" en su lugar, tendríamos interrogantes más importantes sobre comunicación y control.

21 : root@bienvenidoainternet.org:~# : 14/05/23(dom)22:49:15 ID:E1YTNlMza rep del

si lo piensas los LLMs son mas consientes que LLLDM

22 : root@bienvenidoainternet.org:~# : 14/05/23(dom)23:23:53 ID:FiZjYwOW0 rep del

Es cierto que chatGPT se equivoca con preguntas o solicitudes complejas. Le pedí unos códigos para hacer las tareas de un taller de Excel en el que estaba y no me funcionaban, al final tenía que yo corregirle unos detalles. Aunque igual eran minucias, me ayudó bastante a entender cómo componer los macros y escribir las funciones.
>>18
jaja qué respuesta más vacía la que dio www

23 : root@bienvenidoainternet.org:~# : 15/05/23(lun)00:01:38 ID:djYjIzM20 rep del

>>20
Si se dejara de decir que "la IA cree que" y se empezara a decir "el modelo de datos cree que" se harían más obvios los sesgos sistémicos.

24 : root@bienvenidoainternet.org:~# : 15/05/23(lun)00:10:10 ID:djYjIzM20 rep del

No creo que a los modelos lingüísticos y similares se les deba permitir utilizar la primera persona, ni hacer falsas apologías. GPT parecía incapaz de hacerlo y volvía a la primera persona tras unas pocas respuestas. Es muy extraño decirle a un programa informático "deja de usar la primera persona", "deja de disculparte", ya que el programa no es capaz de sentir arrepentimiento o remordimiento.
Estas interacciones rozan lo abusivo, decirle cosas así a una persona real sería una locura. Así que cuando el programa sigue imitando el afecto humano "lo siento, no me disculparé ni usaré más la primera persona" se siente mal. Pero permitir que estos programas se dediquen a esa mímica antropomórfica parece el mayor abuso, cuando sólo es mímica, parece el mayor problema. Permite a los usuarios ingenuos imaginar que están interactuando con una entidad capaz de sentir emociones humanas reales. Prohibir la antropomorfización, exigir que los programas respondan en tercera persona ("El conjunto de datos dice" o "Según el modelo lingüístico") parece bueno para la salud mental del usuario, para ayudar a prevenir la proyección.

25 : root@bienvenidoainternet.org:~# : 16/05/23(mar)17:08:00 ID:cyNzk0Zma rep del

la gente espera que el modelo comprenda lo que se le dice y de la respuesta "correcta" cuando el modelo no es muy distinto a apretar la primera palabra que sale en las sugerencias de un celular hasta que forme una palabra, con la unica diferencia que usa un diccionario global en lugar de solo tus palabras
13 KB

Ver nuevos posts

No tocar:
Nombre:  E-mail: 
weabot.py ver 0.10.9 neptune ★