Sugieren que se cree una agencia que conceda licencias a los sistemas de IA más potentes y tenga la autoridad para “retirar esa licencia y garantizar el cumplimiento de las normas de seguridad”.
OpenAI, la empresa que desarrolló la popular herramienta ChatGPT, cree que la intervención de los gobiernos será fundamental para mitigar los riesgos de los sistemas de inteligencia artificial (IA).
“A medida que esta tecnología avanza, entendemos que la gente esté preocupada por cómo podría cambiar nuestra forma de vida. Nosotros también lo estamos”, comentó el director general de OpenAI, Sam Altman, en una comparecencia ayer ante el Senado estadounidense.
Altman sugirió que se cree una agencia estadounidense o internacional que conceda licencias a los sistemas de IA más potentes y tenga la autoridad para “retirar esa licencia y garantizar el cumplimiento de las normas de seguridad”.
El auge del ChatGPT, que ha desatado pánico entre los educadores por el uso que le dan numerosos estudiantes para hacer trampa en los exámenes, generó nuevas preocupaciones sobre la capacidad de esta poderosa herramienta de “IA generativa” para engañar a la gente, difundir falsedades, violar la protección de los derechos de autor y poner en peligro algunos puestos de trabajo.
El senador demócrata Richard Blumenthal, que preside el Subcomité de privacidad, tecnología y legislación del Comité Judicial del Senado, señaló que las empresas de IA deberían estar obligadas a probar sus sistemas y revelar los riesgos conocidos antes de lanzarlos al mercado, y expresó su especial preocupación por cómo los futuros sistemas de IA podrían desestabilizar el mercado laboral.
Altman se mostró en gran medida de acuerdo. Cuando se le preguntó por su peor temor respecto a la IA, el empresario comentó que dicha industria podría causar “un daño significativo al mundo” y que “si esta tecnología sale mal, puede salir muy mal”. Sin embargo, propuso que una nueva agencia reguladora imponga salvaguardas que bloqueen los modelos de IA que podrían “autorreplicarse y autoexfiltrarse en la naturaleza”, aludiendo a preocupaciones futuristas sobre sistemas avanzados de IA que pudieran manipular las decisiones de los humanos.