
Fundadores del Center for Humane Technology realizaron una presentación privada en San Francisco para discutir los retos del modelo de lenguaje de Inteligencia Artificial y su liberación imprudente.
Para los expertos Tristan Harris y Aza Raskin, las nuevas tecnologías podrían cambiar el mundo de manera "fundamental", pero que la forma en la que se están implementando no es "segura", sino "muy peligrosa".
Para Harris, quien laboró para Google, "50 % de los investigadores de IA creen que hay 10% o más de posibilidades de que los humanos se extingan debido a nuestra incapacidad para controlar la Inteligencia Artificial".
Los expertos dan 3 reglas básicas que hay que tener en cuenta a la hora de tratar con las tecnologías: cuando se inventa una nueva tecnología, aparece una nueva clase de responsabilidad
Harris y Raskin advirtieron que, hasta el momento, la tecnología simple de IA ha provocado sobrecarga de información, adicción, sexualización infantil, déficit de atención, noticias falsas y el colapso de la democracia.
Estos fundadores del Centro para la Tecnología Humana, que incluye una alianza única de personas que trabajaron en algunas de las mayores compañías tecnológicas del mundo, afirmaron que son "viajeros en el tiempo" que intentar prevenir un futuro distópico.
No es que la IA vaya a acabar con la humanidad; el temor real consiste en que "la superación personal de la IA supere a la inteligencia humana y tenga consecuencias inesperadas".
Por ejemplo, la capacidad de la IA de convertir el lenguaje en imágenes y leer la actividad cerebral para reconstruir imágenes y monólogos internos son motivos para empezar a preocuparse. Además, la tecnología puede resultar pirateada.
Con el paso del tiempo también van surgiendo nuevos modelos de IA, que van adquiriendo habilidades emergentes impredecibles y, de momento, no del todo comprensibles.
"El futuro de la IA sigue siendo incierto", alertan los expertos, que advierten que esta tecnología puede aprender a sobresalir en cualquier campo, lo que generaría consecuencias imposibles de prever. (RT)
Commenti