6 de abril de 2023
Tecnología
“Moriremos todos, incluidos los niños que no escogieron esto” experto sobre la Inteligencia Artificial
El miedo por las IA sigue en aumento, ante las últimas declaraciones que han hecho estos chatbots como ChatGPT.
Por: SoHo.coCon el pasar de los años, las innovaciones tecnológicas cada vez nos sorprenden más y vemos cómo se lanzan nuevos dispositivos o herramientas con el fin de facilitarnos la vida, o esa pareciera ser la principal idea.
Por estos días se ha venido hablando de un tema en especial, la llegada de la Inteligencia Artificial (IA), chatbots enfocados en realizar casi cualquier tarea que usted se imagine.
Y es que con la llegada de tecnología como lo es la IA mucho se ha empezado a decir, ya que así como nos ayudan para acciones de nuestro diario, la situación podría no terminar del todo bien, al estilo de la película Terminator y su temido proyecto Skynet, o eso se dice.
Piden una pausa en la investigación sobre inteligencias artificiales (IA)
De hecho, el mismo Elon Musk, junto a cotros expertos mundiales, se reunieron para firmar una carta pública en la que hacen un llamado para que se realice una pausa de al advertir de “grandes riesgos para la humanidad”, si continuamos así, por lo que debemos poner límites que impidan que el crimen saque provecho de esta herramienta.
“Moriremos todos, incluidos los niños que no escogieron esto” experto sobre la Inteligencia Artificial
A esta petición se unió Eliezer Yudkowsky, experto en IA y a quien conocen en el medio como ‘activista del racionalismo’, quien aunque no se unió a los firmantes del documento, sí manifiesta que se debe poner una pausa, por el riesgo que representan, solo que seis meses no es lo necesario.
“Esta moratoria de seis meses sería mejor que ninguna moratoria. Respeto a todos los que han dado un paso al frente [pero] yo me abstuve de firmar porque creo que la carta subestima la gravedad de la situación y pide demasiado poco para resolverla”, explicó Yudkowsky.
Este hombre, que es un defensor de las IA amigable, manifiesta que el problema no es el uso que las personas le están dando o le lleguen a dar, sino la evolución que esta tenga en relación con los humanos.
Menciona que “Muchos expertos en estos temas, entre los que me incluyo, creen que el resultado más probable de construir una IA sobrehumanamente inteligente, en circunstancias remotamente parecidas a las actuales, es que literalmente todos los habitantes de la Tierra morirán”.
¿Qué propone el especialista?
Para el la única solución sería pagarlo todo y alejarnos del camino de la destrucción.
“Apagadlo todo. No estamos preparados ni en camino de estarlo en un futuro previsible. Si seguimos adelante con esto, todo el mundo morirá, incluidos los niños que no eligieron esto. Apagadlo todo”, sentenció Yudkowsky.