El desarrollo de la "Inteligencia Artificial" sería un grave error: Stephen Hawking
COMPARTIR
TEMAS
El científico argumenta ésta podría tomar el control de las acciones humanas, volviendo real el escenario de ficción.
México, DF. En un artículo publicado por The Independent, el astrofísico, Stephen Hawking, revela su preocupación acerca del desarrollo de una "Inteligencia Artificial" superior; pues cree que actualmente no se le está prestando atención a las posibles implicaciones que eso tendría.
Para él, el principal problema que se tendría con este tipo de investigación, es que llegaría un punto donde el modelo "mecánico" sobrepasaría al humano, volviéndose este último un sirviente del primero. Con esta declaración lo primero que se nos viene a la mente es un escenario parecido al de obras como Terminator o Matrix, donde las máquinas busca el exterminio o control de la raza humana para su propio beneficio.
Sin embargo, lo que plantea es algo parecido a lo que se puede ver en el juego Metal Gear Solid 4: Guns of the Patriots, donde un sistema de Inteligencia Artificial (llamado Sons of the Patriots), al principio dominado por un grupo de personas, se vuelve autosuficiente llegando a controlar las decisiones políticas, sociales, mercantiles y humanitarias del mundo entero, pero dando una ilusión de elección al ser humano; en el caso del título de Konami, todo encamindo a sustentar una economía de la guerra.
Aquí tienes un fragmento del mencionado texto, el cual tuvo su origen después de ver la película "Trascender".
Viendo al futuro, no hay límites fundamentales para lo que puede lograrse. No hay ley física que impida que las partículas se organicen para realizar cálculos más avanzados que los que puede hacer el cerebro humano. Una transición es posible, a pesar de que podría desarrollarse de manera diferente de la película. Como Irving Good se dio cuenta en 1965, las máquinas con inteligencia sobrehumana podría mejorar en varias ocasiones su diseño, lo que provocó lo que Vernor Vinge llama una "singularidad" y el personaje de la película de Johnny Depp llama la "trascendencia".
Uno puede imaginar tal tecnología siendo más inteligente que los mercados financieros, superando a los investigadores humanos, manipulando a los líderes, y desarrollando armas que ni siquiera podemos entender. El impacto a corto plazo de la IA depende de quién la controla, el impacto a largo plazo depende de si se puede controlar en absoluto.
A pesar de todo, Hawking no se muestra en contra de tales investigaciones, pero sugiere que se deberían de tomar en cuenta todas las variables.
Con información de The Independent.