La gerencia de ChatGPT OpenAI aboga por una regulación de las IA “superinteligentes”, argumentando que se necesita un equivalente a la Agencia Internacional de la Energía Atómica para proteger a la humanidad del riesgo de crear accidentalmente algo con el poder de destruirla.
En una nota publicada en el sitio web de la empresa, los cofundadores Greg Brockman e Ilya Sutskever y el CEO, Sam Altman, piden que un regulador internacional empiece a considerear cómo inspeccionar los sistemas, exigir auditorías, comprobar el cumplimiento de las normas de seguridad, y establecer restricciones sobre los grados de despliegue y los niveles de seguridad con el fin de reducir el “riesgo existencial” que podrían plantear dichos sistemas.
Por su interés, publicamos una traducción completa del artículo.
“Dado el panorama tal y como lo vemos ahora, es concebible que en los próximos diez años los sistemas de IA superen el nivel de conocimientos de los expertos en la mayoría de los ámbitos y lleven a cabo tanta actividad productiva como cualquiera de las mayores corporaciones actuales.
Tanto en términos de ventajas como de inconvenientes potenciales, la superinteligencia será más poderosa que otras tecnologías a las que la humanidad ha tenido que enfrentarse en el pasado. Podemos tener un futuro dramáticamente más próspero; pero tenemos que resolver el riesgo para llegar a él. Ante la posibilidad de un riesgo existencial, no podemos limitarnos a ser reactivos. La energía nuclear es un ejemplo histórico comúnmente utilizado de una tecnología con esta propiedad; la biología sintética es otro ejemplo.
También debemos mitigar los riesgos de la tecnología actual de IA, pero la superinteligencia requerirá un tratamiento y una coordinación especiales.
Un punto de partida
Hay muchas ideas importantes para que tengamos una buena oportunidad de navegar con éxito en este desarrollo; aquí exponemos nuestro pensamiento inicial sobre tres de ellas.
En primer lugar, necesitamos cierto grado de coordinación entre los principales esfuerzos de desarrollo para garantizar que el avance de la superinteligencia se produzca de forma que nos permita tanto mantener la seguridad como ayudar a una integración fluida de estos sistemas con la sociedad. Hay muchas formas de poner esto en práctica; los principales gobiernos de todo el mundo podrían establecer un proyecto del que formaran parte muchos de los esfuerzos actuales, o podríamos acordar colectivamente (con la fuerza del apoyo de una nueva organización como la que se sugiere a continuación) que el ritmo de crecimiento de la capacidad de la IA se limite en la frontera a un determinado ritmo anual.
Y, por supuesto, a las empresas individuales se les debería exigir un nivel extremadamente alto de actuación responsable.
En segundo lugar, es probable que con el tiempo necesitemos algo parecido a un OIEA para los esfuerzos de superinteligencia; cualquier esfuerzo que supere un determinado umbral de capacidad (o de recursos como la computación) tendrá que someterse a una autoridad internacional que pueda inspeccionar los sistemas, exigir auditorías, comprobar el cumplimiento de las normas de seguridad, imponer restricciones sobre los grados de despliegue y los niveles de seguridad, etc. El seguimiento del uso de la computación y la energía podría ayudar mucho, y darnos alguna esperanza de que esta idea pueda realmente llevarse a la práctica. Como primer paso, las empresas podrían acordar voluntariamente empezar a aplicar elementos de lo que una agencia de este tipo podría exigir algún día, y como segundo, los distintos países podrían ponerlo en práctica. Sería importante que dicha agencia se centrara en reducir el riesgo existencial y no en cuestiones que deberían dejarse en manos de cada país, como definir lo que una IA debería estar autorizada a decir.
En tercer lugar, necesitamos la capacidad técnica para hacer que una superinteligencia sea segura. Se trata de una cuestión de investigación abierta a la que nosotros y otros estamos dedicando muchos esfuerzos.
Lo que no está en el ámbito de aplicación
Creemos que es importante permitir que las empresas y los proyectos de código abierto desarrollen modelos por debajo de un umbral de capacidad significativo, sin el tipo de regulación que describimos aquí (incluyendo mecanismos onerosos como licencias o auditorías).
Los sistemas actuales crearán un enorme valor en el mundo y, aunque tienen riesgos, el nivel de éstos se siente proporcional al de otras tecnologías de Internet y los enfoques probables de la sociedad parecen apropiados.
Por el contrario, los sistemas que nos preocupan tendrán un poder superior al de cualquier tecnología creada hasta ahora, y debemos tener cuidado de no diluir el enfoque sobre ellos aplicando normas similares a una tecnología muy por debajo de este listón.
Aportación pública y potencial
Pero la gobernanza de los sistemas más poderosos, así como las decisiones relativas a su despliegue, deben contar con una fuerte supervisión pública. Creemos que la gente de todo el mundo debería decidir democráticamente los límites y los valores por defecto de los sistemas de IA. Aún no sabemos cómo diseñar un mecanismo de este tipo, pero tenemos previsto experimentar con su desarrollo. Seguimos pensando que, dentro de estos amplios límites, los usuarios individuales deberían tener mucho control sobre cómo se comporta la IA que utilizan.
Dados los riesgos y las dificultades, merece la pena plantearse por qué estamos desarrollando esta tecnología.
En OpenAI, tenemos dos razones fundamentales. En primer lugar, creemos que va a conducir a un mundo mucho mejor que el que podemos imaginar hoy en día (ya estamos viendo los primeros ejemplos de esto en áreas como la educación, el trabajo creativo y la productividad personal). El mundo se enfrenta a muchos problemas para cuya solución necesitaremos mucha más ayuda; esta tecnología puede mejorar nuestras sociedades, y la capacidad creativa de cada uno para utilizar estas nuevas herramientas seguramente nos asombrará. El crecimiento económico y el aumento de la calidad de vida serán asombrosos.
En segundo lugar, creemos que sería arriesgado y difícil detener la creación de la superinteligencia. Dado que las ventajas son tan tremendas, que el coste de construirla disminuye cada año, que el número de actores a tal fin aumenta rápidamente y que forma parte inherente del camino tecnológico en el que nos encontramos, detenerla requeriría algo parecido a un régimen de vigilancia global, e incluso eso no tiene garantizado su funcionamiento. Así que tenemos que hacerlo bien”.