Servicios AINI
Estados Unidos. Elon Musk y un grupo de expertos en inteligencia artificial y ejecutivos de la industria están pidiendo una pausa de seis meses en el desarrollo de sistemas más potentes que el recientemente lanzado GPT-4 de OpenAI, en una carta abierta que cita riesgos potenciales para la sociedad y la humanidad.
A principios de este mes, OpenAI, respaldado por Microsoft, presentó la cuarta versión de su programa de IA GPT (Generative Pre-trained Transformer), que ha cautivado a los usuarios con su amplia gama de aplicaciones, desde involucrar a los usuarios en conversaciones similares a las de los humanos hasta componer canciones y resumir largas documentos.
La carta, emitida por el Future of Life Institute sin fines de lucro y firmada por más de 1,000 personas, incluido Musk, pedía una pausa en el desarrollo avanzado de IA hasta que expertos independientes desarrollaran, implementaran y auditaran protocolos de seguridad compartidos para tales diseños.
«Los poderosos sistemas de inteligencia artificial deben desarrollarse solo una vez que estemos seguros de que sus efectos serán positivos y sus riesgos serán manejables», decía la carta.
La carta detallaba los riesgos potenciales para la sociedad y la civilización de los sistemas de IA competitivos entre humanos en forma de interrupciones económicas y políticas, y pedía a los desarrolladores que trabajaran con los legisladores en materia de gobernanza y autoridades reguladoras.
Los cosignatarios incluyeron al CEO de Stability AI, Emad Mostaque, investigadores de DeepMind, propiedad de Alphabet (GOOGL.O) , y los pesos pesados de AI Yoshua Bengio, a menudo denominado como uno de los «padrinos de AI», y Stuart Russell, un pionero de la investigación en el campo.
Según el registro de transparencia de la Unión Europea , el Instituto Future of Life está financiado principalmente por la Fundación Musk, así como por el grupo de altruismo efectivo Founders Pledge con sede en Londres y la Fundación Comunitaria de Silicon Valley.