Hace uno o dos años leí un libro que me marcó profundamente. Se titula vida 3.0, y fue escrito por el investigador y divulgador sueco máx. marca de teg. En eso, marca de teg Detalla con gran sencillez y de forma muy completa conceptos básicos de la inteligencia artificial, su evolución, los tipos de IA que existen y, sobre todo, los retos que la IA plantea para el futuro de la humanidad. Lo recomiendo altamente.
El libro también narra el proceso de creación del Instituto Futuro de la Vida en 2014 y su posterior evolución, incluyendo un episodio muy interesante en el que se habla de la cumbre de Asilomar, en el que el asilomar temprano, que debería regir el desarrollo de la IA en el futuro.
No estamos hablando de una organización o cualquier cumbre. Entre los participantes en el desarrollo del Instituto Futuro de la Vida hay nombres tan impactantes como los de los difuntos Stephen Hawking, Elon Musk, sam altman (cofundador de OpenAI) o Jaan Tallinn (Skype)Entre muchos otros.
Hace unas semanas, el Future of Life Institute apareció en los titulares debido a una carta abierta firmado por (además de algunos de los mencionados anteriormente) todo tipo de investigadores y miembros relevantes de la comunidad científica y empresarial en todo el mundo, incluidos Steve Wozniak (Apple). Su objetivo era que tanto OpenAI como otras empresas de inteligencia artificial suspender su investigación durante al menos 6 meses para detenerse y considerar el impacto de estas herramientas.
Así, la carta recordaba la importancia de seguir los principios de Asilomar y refuerza la idea de que la IA tiene un gran potencial para beneficiar a la humanidad, pero también conlleva muchos riesgos:
«Los sistemas de IA con inteligencia humana-competitiva pueden plantear riesgos profundos para la sociedad y la humanidad, como lo demuestra una extensa investigación reconocida por los principales laboratorios de IA. (…) la IA avanzada podría representar un cambio profundo en la historia de la vida en la Tierra, y debe planificarse y gestionarse con cuidado y recursos.
Lamentablemente, este nivel de planificación y gestión no se está dando, aunque en los últimos meses los laboratorios de IA han entrado en un correr fuera de control desarrollar e implementar mentes digitales cada vez más poderosas que nadie, ni siquiera sus creadores, pueden entender. predecir o controlar de forma fiable. (…) Los sistemas potentes de IA deben desarrollarse solo una vez que estemos seguros de que sus efectos serán positivos y sus riesgos serán manejables”.
Si lees el libro que te recomendé al principio entenderás por qué. La preocupación es garantizar que los beneficios obvios de la IA no se vean eclipsados por consecuencias negativas (marca de teg está especialmente preocupado por la evolución de la IA a nivel de respeto a la privacidad de los usuarios, controlando la evolución de sistemas económicos completos o incluso su papel en entornos bélicos a través de armas autónomas).
El desafío será saber si la comunidad internacional atenderá este llamado. En ese momento, un actor básico como Sam Altmannuno de los padres de ChatGPT y Dalle2, dos de los grandes impulsores de la aceleración de la IA en los últimos meses, no firmó la carta.
Sin embargo, todo eso ha cambiado.
El CEO de OpenAI, Sam Altman, y el CEO de Google DeepMind, Demis Hassabis, así como Max Tegmark de MIT y otros nombres tecnológicos, incluido el cofundador de Skype, Jaan Tallinn, han firmado una declaración que insta a la atención mundial al riesgo existencial de la IA.
El contenido de dicha carta es muy muy breve, y muy muy directo:
“Los expertos en IA, los periodistas, los legisladores y el público están discutiendo cada vez más un amplio espectro de riesgos de IA importantes y urgentes. Aún así, puede ser difícil expresar preocupaciones sobre algunos de los riesgos más graves de la IA avanzada. La siguiente declaración sucinta tiene como objetivo superar este obstáculo y abrir la discusión. También tiene como objetivo crear una comprensión común del creciente número de expertos y figuras públicas que también se toman en serio algunos de los riesgos más graves de la IA avanzada”.
La carta termina con esta declaración:
“Mitigar el riesgo de extinción de la IA debería ser una prioridad mundial junto con otros riesgos sociales como las pandemias y la guerra nuclear”
Esta afirmación, junto con la que se produjo hace unas semanas, deja claro que la gran mayoría de los principales expertos mundiales en inteligencia artificial están de acuerdo en destacan la necesidad de regular su desarrollo antes de que llegue a un punto en el que sea inviable controlar sus efectos en algunos campos como los mencionados anteriormente. El apoyo de Sam Altman (sin duda la mayor figura en la actualidad en este campo) será clave para animar a otras grandes empresas pioneras en IA a sumarse a esta corriente y organismos internacionales para ponerse manos a la obra.
Este artículo contiene enlaces a afiliación de Amazonas Usarlos para comprar es una manera fácil de ayudarnos a seguir creciendo 😉
Mantente informado de las noticias más relevantes en nuestro canal Telegrama