top of page
  • bambarito59

Superinteligencia artificial es inevitable, y peligrosa, advierten


Los cofundadores de OpenAI lanzaron una voz de alerta, algo que ya han hecho otros expertos.


Afirman que la creación de sistemas de inteligencia artificial superinteligentes, cuyas capacidades superan las de la inteligencia artificial general, es cosa de tiempo y podría presentar "un riesgo existencial" para la humanidad.


En ese punto, lo que se necesita es actuar para mitigar los futuros desafíos.


En comentarios publicados en el blog de la empresa, sus creadores, Sam Altman, Greg Brockman e Ilyá Sutskever, mencionan que "tal y como vemos el panorama ahora, es concebible que en los próximos 10 años los sistemas de Inteligencia Artificial superen el nivel de los expertos en la mayoría de los ámbitos y lleven a cabo tanta actividad productiva como una de las corporaciones más grandes de la actualidad.


Los dirigentes de OpenAI, empresa creadora del ChatGPT, agregaron que "la superinteligencia será más poderosa que otras tecnologías a las que la humanidad ha tenido que enfrentarse en el pasado".


"Además de ofrecernos un futuro mucho más próspero, tiene también un potencial inmensurablemente destructivo", aseguran".


Señalan también que "la energía nuclear comúnmente se utiliza como un ejemplo histórico de una tecnología con esta propiedad, la biología sintética es otro ejemplo".


Los creadores de OpenAI sostienen que "los sistemas que nos generan preocupación tendrán la potencia más allá de cualquier tecnología creada hasta ahora", y apuntan que detener la creación de la superinteligencia sería "arriesgado y difícil", porque ya es una parte intrínseca del desarrollo tecnológico en curso, y "pararlo requeriría algo así como un régimen de vigilancia global," son garantía alguna.


Entre las opciones que manejan los fundadores de OpenAI, estaría coordinar esfuerzos entre los principales desrrolladores de inteligencia artificial, buscando garantizar la seguridad de las nuevas tecnologías, sobre todo cuando se trata de capacidades que igualen o excedan a las del cerebro humano.


También proponen un ente regulador internacional para dicha industria, como sucede el Organismo Internacional de Energía Atómica, que ayude a reducir el riesgo existencial para la humanidad.


Finalmente, se puede obtener la "capacidad técnica para hacer que la superinteligencia sea segura".


Hacia donde vamos con esta inteligencia que puede ser superior a la de los humanos

logotipo.png
primavera 3.jpg
bottom of page