Crédito de la imagen: pxfuel.com

Elon Musk, Steve Wozniak y otras personalidades piden pausar “durante al menos 6 meses” el entrenamiento de IA avanzadas

Diferentes personas firmaron una carta abierta. Al momento de redactar este artículo figuran 1.187 firmas. Allí aparecen nombres de la talla de Elon Musk, CEO de Tesla, Twitter y SpaceX. También vemos a Steve Wozniak, cofundador de Apple, entre otras más. Todas tienen algo en común: preocupación. Preocupación por los sistemas de inteligencia artificial (IA) avanzados.

Los firmantes piden pausar “inmediatamente durante al menos 6 meses el entrenamiento de los sistemas de IA más potentes que GPT-4”. Por un lado, el miedo está expuesto para los desarrollos más progresivos. Por el otro, indican “más potentes que GPT-4”. Sin embargo, en cierta forma GPT-4 como tal podría quedar exenta entonces. Y ello resulta curioso. Sam Altman, CEO de OpenAI, admitió que su empresa estaba algo asustada. Ese susto deviene de los posibles usos de las IA con fines fraudulentos.

Los solicitantes de la carta actual también anexaron más comentarios. Dijeron que los avances en inteligencia artificial deben hacerse con planificación. “Desafortunadamente, este nivel de planificación y gestión no está ocurriendo, a pesar de que en los últimos meses los laboratorios de IA han entrado en una carrera fuera de control para desarrollar e implementar mentes digitales cada vez más poderosas que nadie, ni siquiera sus creadores, las pueden entender, predecir o controlar de forma fiable”, agregaron.

Asimismo, la IA se ha vuelto competitiva hasta para con las personas. En algunos casos podrían suplantar sus funciones. En otras situaciones, hasta superarlas o llegar a perder el control. Al respecto, en la carta manifiestan: “Los sistemas potentes de IA deben desarrollarse solo una vez que estemos seguros de que sus efectos serán positivos y sus riesgos serán manejables”.

Los interesados piden que la pausa sea “pública y verificable”. Además, “si tal pausa no se puede promulgar rápidamente, los gobiernos deberían intervenir e instituir una moratoria”. Es decir, se quiere lograr desarrollar un sistema de control y fiabilidad. Eso, a la par de elaborar todo de manera planificada y regulada. La seguridad es la premisa clave a cumplimentar y garantizar.

Eso sí, en la carta se aclara: “Esto no significa una pausa en el desarrollo de la IA en general, simplemente un paso atrás de la carrera peligrosa hacia modelos de caja negra impredecibles cada vez más grandes con capacidades emergentes”. Consideran relevante el rol de autoridades. También la inserción de mecanismos para diferenciar cuándo algo lo elaboró una IA.

El escrito finaliza con una invitación a disfrutar de la humanidad y la IA. Para ello, la sociedad debe adaptarse. A la par, hacer una pausa en IA puede evitar catástrofes. Quienes deseen, pueden añadir su nombre a la lista/carta mediante este enlace.

Fuentes: EmolXataka