Laut jüngsten Berichten ausländischer Medien ist Apples KI-Kooperation mit Google tatsächlich umfassender als bisher angenommen. Im Rahmen der Vereinbarung genießt Apple beträchtliche Freiheiten bei der Nutzung und Modifizierung von Googles KI-Technologie.

Laut einer mit der Zusammenarbeit vertrauten Person hat Apple in seinen eigenen Rechenzentren vollen Zugriff auf die Gemini-Modelle. Dieser Zugriff ermöglicht es Apple, kleinere, aufgabenspezifische Modelle zu generieren, die so klein sind, dass sie direkt auf Apple-Geräten ausgeführt werden können und somit eine schnellere Aufgabenerledigung ermöglichen. Dieser Prozess der Generierung neuer Zweigmodelle wird als „Verfeinerung“ bezeichnet. Dabei übertragen große Sprachmodelle (LLMs) Wissen in kleinere, effizientere Modelle.
Dieser Ansatz bietet klare Vorteile: Kleinere Modelle sind effizienter, benötigen weniger Rechenleistung und liefern schnellere Ergebnisse. Sie eignen sich besser für die Ausführung auf Endgeräten als große, cloudbasierte Modelle. Da Apple zudem vollen Zugriff auf Gemini hat, können die „Studentenmodelle“ die internen Rechenprozesse von Gemini erlernen und nachahmen. Dies ist effektiver als die bloße Imitation der Ergebnisse und erzeugt kleinere Modelle mit einer Leistung, die nahezu an die von hochmodernen „Lehrermodellen“ heranreicht, bei gleichzeitig deutlich reduziertem Rechenaufwand.
Der Bericht bekräftigt zudem, dass Apples internes Team für Grundlagenentwicklung die Entwicklung eines eigenen Modells nicht aufgegeben hat, die Ziele des Teams jedoch derzeit unklar sind. Schließlich bestätigt der Bericht, dass Apple auf der WWDC im Juni bedeutende Verbesserungen für Siri ankündigen wird, darunter das Speichern vergangener Gespräche mit Nutzern und proaktive Vorschläge, beispielsweise zur Vermeidung von Staus.