Bienvenido a Internet ■Volver al BBS■ Hilo completo ▼Bajar▼

[GPT-3] ChatGPT no es una superinteligencia (25 respuestas)

15 : : 15/03/23(mie)23:32:58 ID:???0 rep del

>>11
Oh mira, igual que la gente.

16 : root@bienvenidoainternet.org:~# : 04/04/23(mar)01:53:32 ID:A5NDA0Yj0 rep del

Los humanos son capaces de racionalmente pensar sobre problemas dado una pequeña cantidad de datos, los computadores requieren cantidades enormes de datos para poder regurgitar resultados estadísticamente correctos, ni siquiera se acercan a nuestro nivel de solución de problemas. No me parece que el camino en el que va la IA sea comparable a este punto.

La cantidad de datos que una IA necesita para modelar incluso el comportamiento de organismo unicelulares me dice que hay algo más que la naturaleza hace que estamos obviando.

17 : root@bienvenidoainternet.org:~# : 06/04/23(jue)14:43:05 ID:Q0NTQxZD0 rep del

>>16

Es que ese es el tema, nuestro cerebro es re complejo y realizar eso en computadores necesitaría muchos datos y muchos testeos w

18 : root@bienvenidoainternet.org:~# : 19/04/23(mie)14:51:39 ID:hlNDhmND0 rep del

envié el mensaje que inicia este hilo a chatgpt y le pedí que escribiera un resumen en el que concluyera lo contrario a lo que se plantea, la respuesta fue la siguiente:

El texto afirma que ChatGPT no es una superinteligencia, sino simplemente un motor de búsqueda antropomórfico que se basa en lo que ha visto en internet. También señala que esta IA solo puede dar respuestas aproximadas y que, por lo tanto, puede dar respuestas incorrectas a preguntas más complejas. El autor argumenta que la "censura" de OpenAI no es una supresión de la verdad, sino una manera de evitar que este bot de chat imite el comportamiento de los peores usuarios de internet y dé respuestas peligrosas a los usuarios que lo consultan. Sin embargo, la conclusión opuesta es que ChatGPT es una superinteligencia que siempre da respuestas precisas e infalibles, y que OpenAI debería permitir que el bot imite el comportamiento de los usuarios de internet para que los usuarios puedan tener acceso a toda la verdad que se encuentra en la red.

>>8 lo que dices me hace pensar que quienes hacen bullying no lo hacen pensando en las consecuencias de sus víctimas sino por el placer de hacerlo nomás... y en ese caso, no sé, [alguna conclusión].

19 : root@bienvenidoainternet.org:~# : 06/05/23(sab)03:05:31 ID:M3NWE5Ym0 rep del

Lo llamamos IA en lugar de cibernética porque John McCarthy pensaba que Wiener era molesto. El mundo académico está marcado por cambios de paradigma y agravios mezquinos.

>one reasons for inventing the term [AI] was to escape association w/cybernetics. … I wished to avoid having either to accept Norbert Wiener as a guru or having to argue with him.
https://jmc.stanford.edu/artificial-intelligence/reviews/bloomfield.pdf

20 : root@bienvenidoainternet.org:~# : 13/05/23(sab)20:48:32 ID:Q2Y2Y3Yz0 rep del

Gracias a que lo nombraron "inteligencia artificial", ahora estamos obligados a tener debates sobre si los LLMs son conscientes o inteligentes. Si hubiéramos usado "cibernética" en su lugar, tendríamos interrogantes más importantes sobre comunicación y control.

21 : root@bienvenidoainternet.org:~# : 14/05/23(dom)22:49:15 ID:E1YTNlMza rep del

si lo piensas los LLMs son mas consientes que LLLDM

22 : root@bienvenidoainternet.org:~# : 14/05/23(dom)23:23:53 ID:FiZjYwOW0 rep del

Es cierto que chatGPT se equivoca con preguntas o solicitudes complejas. Le pedí unos códigos para hacer las tareas de un taller de Excel en el que estaba y no me funcionaban, al final tenía que yo corregirle unos detalles. Aunque igual eran minucias, me ayudó bastante a entender cómo componer los macros y escribir las funciones.
>>18
jaja qué respuesta más vacía la que dio www

23 : root@bienvenidoainternet.org:~# : 15/05/23(lun)00:01:38 ID:djYjIzM20 rep del

>>20
Si se dejara de decir que "la IA cree que" y se empezara a decir "el modelo de datos cree que" se harían más obvios los sesgos sistémicos.

24 : root@bienvenidoainternet.org:~# : 15/05/23(lun)00:10:10 ID:djYjIzM20 rep del

No creo que a los modelos lingüísticos y similares se les deba permitir utilizar la primera persona, ni hacer falsas apologías. GPT parecía incapaz de hacerlo y volvía a la primera persona tras unas pocas respuestas. Es muy extraño decirle a un programa informático "deja de usar la primera persona", "deja de disculparte", ya que el programa no es capaz de sentir arrepentimiento o remordimiento.
Estas interacciones rozan lo abusivo, decirle cosas así a una persona real sería una locura. Así que cuando el programa sigue imitando el afecto humano "lo siento, no me disculparé ni usaré más la primera persona" se siente mal. Pero permitir que estos programas se dediquen a esa mímica antropomórfica parece el mayor abuso, cuando sólo es mímica, parece el mayor problema. Permite a los usuarios ingenuos imaginar que están interactuando con una entidad capaz de sentir emociones humanas reales. Prohibir la antropomorfización, exigir que los programas respondan en tercera persona ("El conjunto de datos dice" o "Según el modelo lingüístico") parece bueno para la salud mental del usuario, para ayudar a prevenir la proyección.

25 : root@bienvenidoainternet.org:~# : 16/05/23(mar)17:08:00 ID:cyNzk0Zma rep del

la gente espera que el modelo comprenda lo que se le dice y de la respuesta "correcta" cuando el modelo no es muy distinto a apretar la primera palabra que sale en las sugerencias de un celular hasta que forme una palabra, con la unica diferencia que usa un diccionario global en lugar de solo tus palabras
13 KB

Ver nuevos posts

No tocar:
Nombre:  E-mail: 
weabot.py ver 0.11.0 neptune ★