Imagen vía Flickr (Niels Epting)

The Illusion of Thinking: Apple publica un paper acerca de un estudio y reflexión en inteligencia artificial

¿Casualidad o causalidad? Previo a su WWDC25, Apple publicó un paper propio acerca del estado de la inteligencia artificial (IA). El mismo se titula The Illusion of Thinking.

Allí, la empresa realizó un estudio aplicado a los Modelos de Razonamiento Grandes (Large Reasoning Models, LRM). Estos se caracterizan por generar procesos de pensamiento detallados antes de proporcionar respuestas. En otras palabras, «razonan» a la hora de enfrentar situaciones complejas. Un ejemplo práctico y popular: los modelos «o» de OpenAI (como o3) pertenecen a esta categoría. Estamos ante modelos diseñados para simular procesos de razonamiento humano.

A la par, Apple los compara con los «clásicos» Modelos de Lenguaje de Gran Tamaño (Large Language Model, LLM). La firma implementó las tecnologías de marcas ya populares. Estas consisten en desarrollos de OpenAI (o1 y o3), Anthropic (Claude 3.7 Sonnet Thinking), DeepSeek (DeepSeek-R1) y Google (Gemini Thinking). La casualidad es haber emitido dicho paper poquito antes de su conferencia para desarrolladores. Y más aún si consideramos los resultados y lo reflejado por la compañía.

The Illusion of Thinking

Según la tecnológica, su estudio quiere «comprender las fortalezas y limitaciones de los modelos de razonamiento a través de la lente de la complejidad del problema». La organización plantea escenarios de rompecabezas controlados. Su complejidad aumenta de forma sistemática sin modificar la lógica interna del problema. Es decir, se mantienen estructuras lógicas consistentes.

«Esta configuración permite el análisis no solo de las respuestas finales, sino también de los rastros de razonamiento internos, lo que ofrece información sobre cómo ‘piensan’ los LRM», comentan desde Apple. Los resultados son cuanto menos llamativos. Y desde aquí permítanme ser repetitivo con algunos términos, cuestión a cumplir en los escritos científicos. Los LRM más complejos llegan a un punto en el cual colapsan ante problemas complejos. O sea, incrementan su complejidad del problema hasta cierto punto, pero luego decaen «a pesar de tener un presupuesto de tokens adecuado».

Más curioso se da el panorama al comparar los LRM con LLM estándares. En estos casos, Apple identifica tres puntos relevantes: «(1) tareas de baja complejidad donde los modelos estándar [los LLM] sorprendentemente superan a los LRM, (2) tareas de complejidad media donde el pensamiento adicional en los LRM demuestra ventaja, y (3) tareas de alta complejidad donde ambos modelos experimentan un colapso completo».

En síntesis, y con vuelta a algo ya mencionado, los LRM poseen limitaciones en el cómputo exacto. Para los de Cupertino, los LRM omiten usar algoritmos explícitos y razonan de manera inconsistente entre los acertijos.

«También investigamos los rastros de razonamiento con más profundidad, estudiando los patrones de las soluciones exploradas y analizando el comportamiento computacional de los modelos, arrojando luz sobre sus fortalezas, limitaciones y, en última instancia, planteando preguntas cruciales sobre sus verdaderas capacidades de razonamiento», agregan.

Los modelos dejan de razonar de manera genuina. En su lugar, replican patrones ya incorporados. No obstante, no comprenden la lógica ni la causalidad.

¿Justificación o excusa de Apple?

En palabras simples, Apple quiere «calmar las aguas» respecto al hype generado por la IA. También hacia lo próximo apuntado: tanto la IA generativa (GenAI) como la IA general (AGI).

Por todos es conocido el retraso de Apple en inteligencia artificial. Su Apple Intelligence consta de más promesas que cumplimientos. Ni hablar del futuro Siri potenciado. Mientras, OpenAI, Google, Anthropic y compañía disputan una batalla feroz.

Hay quienes han tomado al paper con buenos ojos. Otros, creen una forma de «defenderse» por parte de Apple ante su lugar en esta carrera. Y bueno, quizás también como anticipo a la WWDC25: Apple omitirá anuncios referidos a IA. O al menos a GenAI/AGI. Otra cosa será cómo juega ello de cara al futuro y contra la competencia.

Fuente

Síguenos en Google News