Tecnovisión

Apple frente al dilema de Siri: negociaciones millonarias, fuga de talento y presión por reinventarse en IA

La compañía de Cupertino busca modernizar su asistente virtual y se debate entre desarrollar modelos propios o integrar tecnologías externas como ChatGPT o Claude.

Apple atraviesa una etapa crítica en su estrategia de inteligencia artificial, con el foco puesto en la modernización de Siri, su asistente virtual. Según reveló Bloomberg, la empresa está evaluando integrar tecnología externa de punta, en especial de OpenAI o Anthropic, para potenciar una nueva versión de Siri, que ha quedado rezagada frente a competidores como ChatGPT y Gemini.

El cambio de timón comenzó con la salida de John Giannandrea, exjefe de IA, y el ingreso de Mike Rockwell —anteriormente al frente del Vision Pro—, quien asumió el liderazgo del equipo de Siri en marzo. Junto a Craig Federighi, vicepresidente senior de ingeniería de software, Rockwell ordenó una evaluación comparativa entre los modelos propios de Apple y los ofrecidos por empresas como Anthropic, OpenAI y Google. Según fuentes cercanas al proceso, el modelo Claude, desarrollado por Anthropic, mostró los mejores resultados.

Apple pidió versiones personalizadas de Claude y ChatGPT capaces de operar en sus propios centros de datos, priorizando así la privacidad del usuario. Esta medida busca evitar depender de infraestructuras externas, una preocupación clave en el ecosistema Apple.

La búsqueda de soluciones externas refleja los problemas internos que enfrenta la empresa. El proyecto de una “LLM Siri” fue postergado indefinidamente tras no alcanzar los estándares de calidad esperados. Incluso durante la última WWDC, ejecutivos de Apple reconocieron la falta de avances sustanciales. En paralelo, Google avanza con Gemini en Android y Samsung ya incorpora IA en sus teléfonos Galaxy con tecnología de Perplexity, una empresa que Apple también consideró adquirir.

El ambiente interno se ha tensado. Equipos como el liderado por Ruoming Pang y Daphne Luong, encargados de los modelos fundacionales, han expresado inquietud ante la posible dependencia de tecnología ajena. La reciente salida de Tom Gunter, experto en modelos de lenguaje, y la amenaza de deserción del equipo detrás de MLX, la plataforma de código abierto optimizada para chips Apple, reflejan la fragilidad de la situación. Las ofertas salariales de compañías como Meta y OpenAI —de hasta 40 millones de dólares anuales— contrastan con las compensaciones más conservadoras de Apple.

A pesar de estas tensiones, la compañía ya ha comenzado a integrar ChatGPT en algunas funciones desde diciembre de 2024 y planea sumar generación de imágenes con el lanzamiento de iOS 26. También permitirá a los desarrolladores elegir entre Claude o ChatGPT para asistir en tareas de programación dentro de Xcode.

No obstante, la falta de un acuerdo definitivo con Anthropic se debe en parte a sus exigencias económicas, que implican pagos anuales por varios miles de millones de dólares con aumentos progresivos. Apple no descarta cambiar de rumbo hacia OpenAI si las condiciones no son favorables.

Mientras tanto, el desarrollo de modelos locales continúa, con usos concretos como Genmojis, redacción de correos breves y funciones integradas en el dispositivo. Se espera que a finales de 2025 estos modelos estén disponibles para desarrolladores externos.

La estrategia de Apple aún no está definida, pero está claro que el futuro de Siri será el reflejo del equilibrio —o tensión— entre mantener el control de su ecosistema y adaptarse a un entorno donde la inteligencia artificial evoluciona a velocidad de vértigo.

Fuentes varias