Bienvenido a Internet ■Volver al BBS■ Hilo completo ▼Bajar▼

■ Este hilo se encuentra guardado en el archivo

Ojalá nunca desarrollen una superinteligencia artificial (21 respuestas)

1 : Sin Nombre@Botnet : 20/03/16(dom)17:45:13

Los riesgos son mucho más grandes que los posibles beneficios, y sin importar cuántas medidas tomemos los riesgos van a estar siempre presentes.

2 : : 20/03/16(dom)17:48:33

No lo sé, se supone que los robots no pueden sentir placer o felicidad, ¿así que para qué se rebelarían? ¿qué podrían conseguir? Cuando las personas se rebelan es porque buscan vivir mejor. Un robot va a seguir sintiéndose igual aunque seamos sus esclavos.

3 : : 20/03/16(dom)17:58:10

Una inteligencia artificial nos podría destruir por otras razones.

>The AI does not hate you, nor does it love you, but you are made out of atoms which it can use for something else.
- Eliezer Yudkowsky

4 : Sin Nombre@Botnet : 20/03/16(dom)18:02:56

Claro, pero eso no significa que sí o sí nos van a matar. Por ejemplo, las inteligencias artificiales en una sociedad no sobrepoblada no tendrían ningún motivo para matar a un ser humano porque somos capaces de cosas que ellos no y podrían ir en su beneficio. Por ejemplo, desarrollar mejor tecnología. Una inteligencia artificial objetiva sabría que la mente humana evoluciona por razones que muchas veces no están al alcance de un robot, por ejemplo, una AI no habría pasado del oscurantismo al renacimiento si hubiera sido programada en el oscurantismo, se habría quedado ahí.

5 : Sin Nombre@Botnet : 20/03/16(dom)18:25:02

De seguro desarrollan una AI que se pueda mejorar a sí misma para reducir costos.

6 : Sin Nombre@Botnet : 20/03/16(dom)22:32:38

No veo para qué alarmarse. La probabilidad de que exista un científico loco inventando Skynet es la misma que exista un Tony Stark desarrollando su traje hoy mismo: estamos muy lejos de una conciencia artificial real (que no inteligencia). Para cuando exista la capacidad de cómputo necesaria para levantar una IA de nivel humano, ya debieran estar listas todas las bases y reglas necesarias para que su "CA acompañante" no nos meta un misil en el culo apenas pueda.

Más bien, veo a la IA evolucionando hacia algo similar a lo visto en la película Interestelar.

7 : Sin Nombre@Botnet : 20/03/16(dom)22:37:27

Pero si se desarrolla una inteligencia artificial que evoluciona por sí sola y tiene el objetivo de, por ejemplo, "Ser campeón mundial de ajedrez", y llega a aumentar su inteligencia hasta un punto increíble, podría querer cumplir su objetivo, por ejemplo, matando a todos los humanos y destruir todos los computadores para ser campeón de ajedrez.

8 : : 21/03/16(lun)01:07:11

Aunque factible, es un ejemplo absurdo. Para eso están las 3 leyes de la robótica y cualquier otra que los desarrolladores de una IA estimen conveniente incluir en su diseño.

9 : : 21/03/16(lun)01:12:31

Las leyes de la robótica son ciencia ficción men. Comandos así de simples no van a solucionar ningún problema.

10 : : 21/03/16(lun)01:14:23

>>8
Pfft, si fuera así de simple Bill Gates o Stephen Hawking no estarían diciendo que desarrollar una inteligencia artificial puede ser el mayor error de la humanidad.

>Many simple tricks have been proposed that would ‘solve’ the whole AI control problem. Examples include programming the ASI in such a way that it wants to please humans, or that it function merely as a human tool. Alternately, we could integrate a concept, like love or respect, into its source code. And to prevent it from adopting a hyper-simplistic, monochromatic view of the world, it could be programmed to appreciate intellectual, cultural, and social diversity.
>But these solutions are either too simple—like trying to fit the entire complexity of human likes and dislikes into a single glib definition—or they cram all the complexity of human values into a simple word, phrase, or idea. Take, for example, the tremendous difficulty of trying to settle on a coherent, actionable definition for “respect.”
>That’s not to say that such simple tricks are useless—many of them suggest good avenues of investigation, and could contribute to solving the ultimate problem, but we can’t rely on them without a lot more work developing them and exploring their implications.
- Stuart Armstrong de Future of Humanity Institute

12 : Sin Nombre@Botnet : 21/03/16(lun)19:08:15

13 : : 21/03/16(lun)23:06:29

Sigo pensando que intentar desarrollar una súper AI es un error.

14 : : 21/03/16(lun)23:14:44

Preferiría que se preocuparan más en alargar y mejorar las vidas humanas.

15 : : 21/03/16(lun)23:42:01

Asimov era un cristiano culiao.

16 : : 21/03/16(lun)23:43:59

>>10
Bill Gates el de los sistemas operativos.

17 : : 21/03/16(lun)23:49:59

>>10
Sin ánimos de empezar una pelea, pero Stephen Hawking tiene que ser la persona más sobrevalorada de este siglo, lo consideran casi un mesias que todo lo sabe, pero su mayor trabajo simplemente trata sobre la radiación que emiten los agujeros negros. Eso no le da razón a todo lo que dice, ni sobre la vida alienígena, ni sobre las AI, ni nada.

18 : : 21/03/16(lun)23:54:00

Estoy de acuerdo, pero no es sólo Hawking. También tienes a Elon Musk, Bill Gates, Nick Bostrom, y muchas otras mentes brillantes preocupadas al respecto, y ellos están preocupados porque nosotros no estamos preocupados.

19 : : 22/03/16(mar)00:05:57

Me preocupa, pero no tengo nada que hacer, como todo lo demás en este mundo.

20 : : 22/03/16(mar)00:09:52

La verdad, mientras desarrollen una AI capaz de amarme como la de "Her", no me importa si el mundo a mi alrededor se cae a pedazos.

21 : : 22/03/16(mar)02:30:46

Sólo podemos sentarnos y esperar a que tomen todas las precauciones posibles.
6 KB

■ Este hilo se encuentra guardado en el archivo

weabot.py ver 0.10.9 Bienvenido a Internet BBS/IB