
Un nuevo estudio de Apple revela que los modelos de inteligencia artificial especializados en razonamiento, conocidos como Large Reasoning Models (LRMs), colapsan completamente cuando enfrentan problemas de complejidad creciente, desafiando la idea de que estos sistemas “piensan” de manera efectiva.
La investigación, publicada apenas días antes del evento WWDC de Apple, analizó el comportamiento de modelos como OpenAI o1 y o3, DeepSeek R1, Claude 3.7 Sonnet Thinking y Google Gemini Flash Thinking. Los resultados representan un jarro de agua fría para los optimistas de la inteligencia artificial general (AGI) y una confirmación para los escépticos, ya que muestran evidencia contundente sobre las limitaciones de la inteligencia de estos modelos.
Según informaron los investigadores de Apple, mientras los LRMs tienen un buen desempeño en matemáticas y programación, cuando se enfrentan a problemas más complejos solo proporcionan “La Ilusión del Pensamiento”.
Este hallazgo podría explicar la cautela de Apple para incorporar masivamente la IA en sus dispositivos, a diferencia de competidores como Google y Samsung, que han priorizado estas capacidades en sus productos.

Cómo los investigadores evaluaron las habilidades de razonamiento
Para evaluar los modelos de razonamiento, los investigadores de Apple utilizaron puzzles o rompecabezas lógicos clásicos como la Torre de Hanoi. Este puzzle consiste en discos apilados de mayor a menor en una de tres clavijas, y el objetivo es mover todos los discos a la tercera clavija sin colocar nunca un disco más grande sobre uno más pequeño.
Otros puzzles incluían el salto de fichas de damas a espacios vacíos, el problema de cruzar un río (habitualmente planteado con un zorro, una gallina y un saco de grano), y la configuración específica de bloques apilados.
Estos rompecabezas son reconocibles de clases de matemáticas o juegos en línea, ya que representan una forma simple de evaluar la capacidad humana para razonar y resolver problemas. Una vez que se comprende la lógica, solo hay que seguirla incluso cuando aumenta la complejidad, lo que en este caso significa más discos, fichas, animales o bloques. Sin embargo, los investigadores descubrieron que los LRMs comienzan a fallar después de cierto punto.
“Los resultados muestran que todos los modelos de razonamiento exhiben un patrón similar respecto a la complejidad: la precisión disminuye progresivamente a medida que aumenta la complejidad del problema hasta alcanzar un colapso completo (precisión cero) más allá de un umbral de complejidad específico para cada modelo”, escribieron los investigadores. En los resultados mostrados, Claude 3.7 Sonnet + thinking y DeepSeek R1 comienzan a fallar cuando se añade un quinto disco al problema de la Torre de Hanoi. Incluso cuando se aplica más potencia de cálculo a los LRMs, siguen fallando en los puzzles más complejos.
Tres regímenes de complejidad y el colapso de los modelos

El estudio identificó tres regímenes de complejidad en el comportamiento de los modelos evaluados. En tareas de baja complejidad, los modelos de lenguaje estándar (LLMs), sin mecanismos de razonamiento explícito, superaron en eficiencia y precisión a los LRMs. Cuando la dificultad aumentó a un nivel medio, los LRMs demostraron una ventaja clara, gracias a su capacidad para generar cadenas de pensamiento más extensas.
Sin embargo, al enfrentar problemas de alta complejidad, ambos tipos de modelos experimentaron un colapso total en su desempeño. Además, los investigadores descubrieron que los modelos de razonamiento inicialmente aplican más “tokens de pensamiento” a medida que aumenta la complejidad, pero sorprendentemente abandonan el esfuerzo en cierto punto.
“Al aproximarse a un umbral crítico —que corresponde estrechamente con su punto de colapso de precisión— los modelos, de manera contraintuitiva, comienzan a reducir su esfuerzo de razonamiento a pesar del aumento en la dificultad del problema”, señala el estudio. Es decir, cuando los problemas se vuelven más difíciles, utilizan menos tokens o “piensan” menos.
Pero, ¿qué sucede cuando se les proporciona a los LRMs las respuestas? La precisión tampoco mejora. Incluso cuando los investigadores incluyeron el algoritmo en las instrucciones, de modo que los modelos solo necesitaban seguir los pasos, continuaron fallando.
Análisis de los procesos intermedios y el fenómeno del “overthinking”
El acceso a las “huellas de razonamiento” permitió a los investigadores examinar cómo evolucionan las soluciones intermedias dentro del proceso de pensamiento de los LRMs. En problemas simples, los modelos suelen encontrar la solución correcta rápidamente, pero continúan explorando alternativas incorrectas, lo que se traduce en un uso ineficiente de recursos computacionales. Este comportamiento, conocido como “overthinking” (pensar demasiado), implica que los modelos generan respuestas redundantes incluso después de haber hallado la solución.

En tareas de complejidad media, la tendencia se invierte: los modelos exploran, primero, caminos incorrectos y solo después de un proceso extenso logran dar con la respuesta correcta. Cuando la complejidad supera el umbral crítico, los modelos dejan de encontrar soluciones correctas en cualquier punto de su razonamiento, lo que evidencia una incapacidad para autocorregirse y adaptarse a desafíos más exigentes.
Según detalla Apple en su estudio, en el caso de la Torre de Hanoi, los modelos podían ejecutar hasta 100 movimientos correctos en configuraciones de alta dificultad antes de cometer un error, mientras que en el problema de cruzar el río fallaban tras apenas cinco movimientos. Esta disparidad sugiere que la frecuencia con la que los modelos han sido expuestos a ciertos tipos de puzzles durante su entrenamiento puede influir en su desempeño, aunque no explica completamente las limitaciones observadas.
Comparación con el rendimiento humano y limitaciones del estudio
Aunque los resultados pueden parecer desalentadores para quienes esperan una IA capaz de razonar como los humanos, el estudio de Apple aclara que estos hallazgos no implican que los LRMs carezcan por completo de habilidades de razonamiento. Más bien, evidencian que, ante problemas de alta complejidad, su desempeño no supera —y en ocasiones iguala— las limitaciones humanas.
El experto en IA Gary Marcus, citado por el medio original, contextualizó los resultados: “Los humanos (ordinarios) también tienen un conjunto de límites (bien conocidos) que se asemejan a lo que el equipo de Apple descubrió. Muchos (no todos) los humanos fallan en versiones de la Torre de Hanoi con 8 discos”. Marcus añadió: “Lo que muestra el artículo de Apple, fundamentalmente, independientemente de cómo se defina la AGI, es que los LLMs no son sustitutos de buenos algoritmos convencionales bien especificados”.
El estudio reconoce varias limitaciones. Los rompecabezas utilizados representan solo una fracción de los desafíos de razonamiento que se presentan en el mundo real, y la mayoría de los experimentos se realizaron mediante acceso a APIs de modelos cerrados, lo que restringe el análisis de los estados internos de los sistemas. Además, la validación de las soluciones se basó en simuladores deterministas, lo que puede no ser aplicable a dominios menos estructurados.
El futuro del razonamiento en IA
Los propios autores del estudio de Apple subrayan que su trabajo tiene un alcance limitado. Los entornos de puzzles, aunque permiten un control preciso de la complejidad, no reflejan la diversidad de problemas reales ni las demandas de razonamiento basadas en conocimiento. Además, el uso de modelos cerrados y simuladores estructurados restringe la generalización de los hallazgos a otros contextos.
Quedan abiertas preguntas fundamentales sobre la capacidad de los LRMs para desarrollar razonamiento generalizable y sobre las mejoras necesarias para superar las barreras identificadas. El estudio concluye que, si bien los LRMs han avanzado en tareas específicas, enfrentan límites inherentes que desafían la idea de una inteligencia artificial capaz de pensar como los humanos.
La publicación de este estudio justo antes del WWDC de Apple ha generado debate en la comunidad tecnológica.
Mientras empresas como Google y Samsung han apostado por integrar la IA en el centro de sus dispositivos, Apple ha adoptado una postura más cautelosa.
El hallazgo de que los LRMs colapsan ante problemas complejos desafía la narrativa de que la IA está cerca de alcanzar capacidades de razonamiento humano.
Últimas Noticias
Nuevo diseño Liquid Glass con iOS 26 para iPhone: qué opinan los fanáticos de Apple
Varias de las críticas apuntan a problemas concretos como la dificultad para leer notificaciones o la distorsión visual generada por los contornos ondulados de las aplicaciones

Magis TV APK: ver películas, partidos y series gratis en esta app es todo un riesgo para celulares
En países como Colombia y Argentina, las autoridades han bloqueado el acceso a esta aplicación móvil por posibles riesgos relacionados con la privacidad

Nueva era para viajeros: cómo canjear millas en internet entre aerolíneas para viajar por Suramérica
Ciudades como Medellín, Pereira, Antofagasta y Lima tienen búsquedas altas en Google Viajes

Fallas a nivel global en grandes de la tecnología: Amazon, Spotify, Google y muchos más
Sitios web y aplicaciones móviles ampliamente usadas en todo el mundo están presentando errores para cargar el contenido

Binance y ONG Bitcoin Argentina anuncian formación gratuita en tecnología y criptomonedas: cómo participar
Este proyecto permitirá a las universidades integrar conocimientos de Blockchain, contratos inteligentes y finanzas descentralizadas
