A ver, que la inteligencia artificial no es solo cosa de películas futuristas o de las leyes de la robótica de Isaac Asimov. No. La IA está aquí, metida en nuestras vidas, decidiendo cosas por nosotros cada día sin que nos demos cuenta. Ya sea cuando Netflix te sugiere esa serie que terminas viendo de un tirón o cuando el banco te aprueba o rechaza el crédito. La cuestión es que, aunque parezca magia, esto tiene mucho más poder del que solemos pensar. Y sí, en Chile ya nos dimos cuenta. Tanto, que ahora tenemos un proyecto de ley para regularla. ¿La idea? Que la IA sea nuestro aliado, no nuestro jefe. Pero, como en todo, el diablo está en los detalles, dicen.
Empecemos por lo bonito. La inteligencia artificial puede ser una maravilla. El presidente se ha puesto poético, diciendo que la IA puede cambiarlo todo, desde la salud hasta la forma en que aprendemos. ¡Y claro! ¡Qué no va a cambiar si cada vez sabe más sobre nosotros que nuestra propia madre! La promesa es enorme: descubrimientos científicos a la vuelta de la esquina, menos contaminación, y hasta una vida más fácil y feliz. Perfecto, ¿no? Pues sí… pero también hay truco. Porque, si no andamos con ojo, esta tecnología que hoy nos saca de apuros, mañana nos puede meter en más líos de los que imaginamos.
Y aquí es donde empiezan los problemas. Porque, ¿qué pasa si la IA se pasa de lista? ¿O peor, qué pasa si alguien usa esta tecnología para fines menos nobles? La verdad es que la IA puede hacer mucho más que recomendarte qué comer o comprar. Puede colarse en tus datos, meterse en tu privacidad (cosa que ya ha hecho) y hacer predicciones sobre ti que te afecten en serio. Y claro, el proyecto de ley intenta ponerse firme en esto. Quieren que la IA respete los derechos humanos, sea transparente y no te discrimine. Porque, vamos, no sería la primera vez que un algoritmo mete la pata y resulta que lo hace con sesgos. Ya sabes, si eres de cierto barrio o grupo, los resultados no te favorecen tanto. Y ahí está el riesgo.
¿Regular la IA?
Claro, regular la IA suena bien. Pero aquí viene lo divertido. Porque, ¿quién se va a encargar de todo esto? Seamos honestos: regular una tecnología tan compleja no es como ponerle una multa a alguien que estaciona mal el auto. No señor. Aquí hablamos de sistemas tan complicados que ni sus propios creadores entienden bien cómo funcionan. Y ahí está el problema: ¿quién va a fiscalizar todo esto? Porque si ya cuesta trabajo que las cosas más básicas funcionen en algunos lados, imagínate controlar algo tan complejo. ¡Lo que faltaba! Ahí es cuando te preguntas: ¿realmente están preparados para eso?
Un grupo de expertos, esos que saben más de IA que tú y yo juntos, dicen que la ley se queda corta en cuanto a la fiscalización. Que es como pedirle a alguien que vigile un fantasma. Sabes que está ahí, pero ¿cómo lo controlas? Aquí lo que necesitamos es más recursos, más personas capacitadas y, sobre todo, una capacidad técnica de alto nivel. Porque si no, por mucho que pongamos en papel que vamos a regular la IA, no podremos ni empezar.
Uno de los elementos más atractivos del proyecto de ley es la creación de los famosos “sandboxes”, espacios de pruebas donde las empresas pueden jugar con sus sistemas de IA antes de sacarlos al mercado. Un espacio seguro, dicen, para que puedan experimentar sin peligro. Suena de lujo, ¿no? Pero, como siempre, el papel aguanta todo. ¿Tendrán las empresas pequeñas acceso a estas pruebas? Porque, seamos claros, las grandes compañías ya van sobradas, pero las startups no. Aquí los expertos también han levantado la mano para decir que estos sandboxes podrían quedarse en promesas vacías si no se les dota de los recursos adecuados.
Y aquí es donde el Estado debe mojarse un poco más. No basta con decir “prueben en un entorno controlado”, hay que darles herramientas. Algunos expertos sugieren que el Estado proporcione datos curados o equipos tecnológicos para que las empresas más pequeñas también puedan beneficiarse de estos espacios. Porque si no, lo que se vende como un impulso a la innovación, al final solo servirá a los que ya están en la cima. ¿Y los demás? A rebuscársela.
Y luego tenemos la categoría de “riesgo inaceptable”. Aquí la ley lo deja claro: si un sistema de IA puede atentar contra los derechos fundamentales de las personas, queda prohibido. Nada de IA que clasifique personas según su comportamiento social o su apariencia física. Y sí, parece de sentido común, ¿verdad? Pero, ojo, algunos expertos advierten que no todo es blanco o negro. Porque, ¿qué pasa si esos sistemas de IA, que tanto nos asustan, se utilizan para mejorar la educación o la salud pública? ¿Los prohibimos también? Aquí el debate está servido. Y claro, si la ley es demasiado estricta, podríamos estar perdiendo oportunidades que realmente podrían ayudarnos.
La ley tiene buena pinta. Pero como todo en la vida, depende de cómo se aplique. Aquí no se trata solo de tener buenas intenciones; se trata de contar con los recursos, la formación y la infraestructura para que estas ideas se hagan realidad. Porque, ¿de qué sirve prohibir algo si no tienes manera de asegurarte de que se cumpla? ¿De qué sirve crear espacios de innovación si solo unos pocos pueden usarlos?
Esto no es solo un tema de tecnología. Es un tema de derechos, de futuro, y de cómo vamos a enfrentarnos a un mundo donde las máquinas tienen cada vez más peso en nuestras decisiones diarias. Y ahí, querido lector, la pelota está en nuestro jardín. Porque si no ponemos atención, un día, sin darnos cuenta, la IA estará tomando decisiones por nosotros que no podremos ni entender ni controlar.
Así que, ¿cómo queremos que sea el mundo en el que viviremos? ¿Uno donde la IA sea una herramienta poderosa que trabaja a nuestro favor, o uno donde la tecnología tome las riendas sin que tengamos voz ni voto? La respuesta está en nuestras manos (o en el proyecto de ley), pero el tiempo para decidir es ahora.