Apple publica sus nuevos y diminutos modelos LLM. Son una pista clara de que el iPhone tendrá su «AppleGPT»

Apple publica sus nuevos y diminutos modelos LLM.  Son una pista clara de que el iPhone tendrá su «AppleGPT»

  • Los modelos OpenELM destacan por su reducido conjunto de parámetros

  • El más pequeño es 14 veces más pequeño que el Phi-3, el modelo «compacto» de Microsoft

  • Este es otro claro indicio de la inclusión de algún tipo de chatbot en futuras versiones de iOS y sus variantes.

En Apple parecían haber perdido el tren en materia de IA, pero en los últimos meses han intentado ponerse las pilas y poco a poco -y a base de dinero- han empezado a compartir algunos de sus avances en este campo. El último es especialmente interesante, porque apunta directamente a qué tipo de IA veremos en vuestros iPhone más pronto que tarde.

El pequeño OpenELM. Los investigadores de Apple han publicado AbrirELM (Open-source Efficient Language Models), una familia de cuatro grandes modelos de lenguaje (LLM) que en realidad son diminutos en comparación con la mayoría de los modelos en los que se basan ChatGPT o Gemini, por ejemplo. Apple también tiene un estudio de investigación que acompaña la publicación de los modelos.

Cuatro «tamaños». Los modelos están disponibles en versiones 270M, 450M, 1,1B y 3B. El más pequeño, el que tiene 270 millones de parámetros, es significativamente compacto, y por ejemplo el modelo Phi-3 Mini que acaba de publicar Microsoft tiene 3,8B de parámetros, es decir, es 14 veces mayor en número de parámetros. Cada tamaño tiene dos versiones, una «preentrenada» (más general) y una «adaptada a instrucciones» (más enfocada a un propósito específico).

Eficiencia por bandera. Como su nombre indica, el objetivo en estos modelos es buscar la eficiencia, o lo que es lo mismo, poder ejecutarlos sin que el consumo de recursos sea gigantesco. Los modelos más grandes requieren más potencia informática para poder generar texto con fluidez, pero en OpenELM los requisitos son mucho más modestos, y eso apunta directamente a un objetivo.

READ  Cómo deshabilitar los servicios de ubicación en iPhone

El iPhone, por su propio «AppleGPT». Hemos hablado en el pasado sobre los planes de Apple de crear su propio chatbot, al que tentativamente hemos denominado «AppleGPT». Es más que probable que no se llame así, pero lo que está claro es que se ejecutará en el iPhone (u otros dispositivos de Apple) de forma local, sin necesidad de la nube. Estos nuevos modelos son lo suficientemente pequeños como para funcionar sin problemas aparentes en los potentes chips de Apple, aunque también tienen una desventaja.

Más limitado. Cuanto más pequeño es un modelo, más «generalista» y menos rico, preciso y específico puede ser. Por tanto, no podrán competir con modelos mucho más ambiciosos como el GPT-4 o los utilizados en Gemini 1.5 Pro o Claude 3 Opus, pero estos modelos necesitan muchos más recursos para poder funcionar con fluidez, es por ello que de momento la nube es la alternativa para utilizarlos.

Pruebas sintéticas. La variante 450M tiene el mejor rendimiento comparativamente según las pruebas realizadas en el estudio de investigación, pero es superada por otros modelos de código abierto en varios escenarios. Quienes lo han probado lo califican como un modelo «sólido pero muy alineado», lo que significa que sus respuestas son poco creativas y muy formales.

Y también pueden estar equivocados. La propia Apple advierte que estos modelos «se ponen a disposición sin ninguna garantía de seguridad. En consecuencia, existe la posibilidad de que estos modelos produzcan resultados inexactos, dañinos, sesgados o objetables en respuesta a las aportaciones del usuario».

READ  ¿Cuántas horas de Netflix puede durar la batería de un iPhone 12?

En Xataka | El plan de Apple para liderar en IA, más vivo que nunca: la compra de Darwin AI es prueba de ello

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *