Es posible que los robots no roben nuestros trabajos, no en el corto plazo, pero es casi seguro que reducirán las oportunidades de las personas. Un ejemplo de ello es la plataforma Bing Image Creator, basada en la tecnología Dall-e, que en pocos segundos crea un artefacto gráfico a partir de nuestro breve resumen. Para aquellos que no quieren gastar dinero en agencias creativas y grandes comisiones, esta ya es una forma de aprovechar la inteligencia artificial hoy en día, optimizando el tiempo. Correcto o incorrecto, hay personas que pueden, en la medida de lo posible, dirigir el futuro de la IA y, en cierto sentido, canalizarla hacia caminos más amigables que los imaginados por James Cameron en su Terminator. Pero debemos actuar ahora, sin demora.
Sam Altman, CEO de OpenAI, la organización que se ha beneficiado de enormes inversiones de Microsoft para desarrollar, y luego poner a disposición, el modelo GPT, la base del chatbot ChatGPT, está convencido de ello. Con un largo discurso ante el Senado de los Estados Unidos, el CEO respondió a las dudas sobre el auge de la IA y sus objetivos no es controlar el mundo, sino revolucionar las formas en que abordamos muchos escenarios, desde la búsqueda web hasta la producción de contenido digital. El resumen del discurso de Altman está aquí: "Si no se regula, la IA podría causar un daño significativo al mundo". El CEO, junto con sus colegas Greg Brockmann e Ilya Sutskever de OpenAI, publicó un post en el que explica mejor su idea.
Como la energía nuclear
"Dado el panorama, es concebible que en los próximos diez años, los sistemas de IA superen el nivel de experiencia de los expertos en la mayoría de los dominios y lleven a cabo la misma actividad productiva que una de las empresas más grandes de la actualidad. En términos de ventajas y desventajas potenciales, la superinteligencia será mayor que otras tecnologías con las que la humanidad ha tenido que lidiar en el pasado.
Podemos tener un futuro dramáticamente más próspero, pero debemos gestionar el riesgo en el camino a seguir. Dadas las innumerables potencialidades, no podemos simplemente ser reactivos. La energía nuclear es un ejemplo histórico comúnmente utilizado de una tecnología con esta propiedad; La biología sintética es otra. Necesitamos mitigar los riesgos, pero está claro que la IA requerirá un tratamiento y coordinación especiales". ¿Cómo lidias con este problema?
Partiendo de la gobernanza compartida. Significa, para OpenAI, confiar en una agencia, súper partes, que valida los pros y los contras no tanto de la IA en general sino de las aplicaciones específicas que entran en juego. "Es probable que eventualmente necesitemos algo similar al OIEA". Para esfuerzos de superinteligencia;
Cualquier esfuerzo por encima de un cierto umbral de capacidad (o recursos, como el cálculo) tendrá que estar sujeto a una autoridad internacional que pueda inspeccionar los sistemas, solicitar auditorías, probar el cumplimiento de las normas de seguridad, imponer restricciones en los grados de difusión y niveles de seguridad, etc.
"Pero la gobernanza de los sistemas más poderosos, Además de las decisiones relativas a su despliegue, deben tener un fuerte escrutinio público. Creemos que las personas de todo el mundo deberían decidir democráticamente sobre los límites y la configuración predeterminada de los sistemas de IA. Todavía no sabemos cómo diseñar un mecanismo de este tipo, pero planeamos experimentar con su desarrollo", explican Altman y asociados.
Reglas claras y compartidas
Un punto fundamental, que en cierto sentido saca a la superficie el problema con el Garante italiano es donde OpenAI afirma la necesidad de aplicar reglas a los proyectos de código abierto pero sin limitar, por mucho, el umbral tecnológico al que las organizaciones pueden recurrir para su propio desarrollo.
"Debemos tener cuidado de no cambiar el enfoque hacia iniciativas más grandes, aplicando estándares que reduzcan la tecnología aplicada". Durante la audiencia del subcomité del Senado, se le preguntó a Altman sobre el futuro del trabajo, una preocupación creciente ante la aceleración de la automatización de la IA.
El CEO señaló que "habrá muchos más empleos en el otro lado y mejores de los que hay hoy". La rápida difusión de los chatbots ha generado dudas mucho más amplias sobre cómo la inteligencia artificial puede simplificar la difusión de contenido falso, engañoso e infractor de derechos de autor. Temas en los que OpenAI ha dicho que está dispuesto a colaborar, para optimizar la tecnología y no hundirla antes de tiempo.
por Antonino Caffo