„On-Device AI“ spricht lokale KI-Modelle am Mac vom iPhone aus an

Ergänzend zu „lokale LLM-Sprachmodelle auch unterwegs“: On-Device AI beinhaltet direkt einen Server Mode, der eure (An-)Fragen vom iPhone auf dem eigenen Mac rechnet – gleichermaßen ein privates „Private Cloud Compute“.

Das Bild zeigt ein iPhone mit einer geöffneten App auf einem roten Hintergrund. Oben auf dem Bildschirm ist die Dynamic Island sichtbar, und die Uhrzeit zeigt 11:43. Die App scheint eine KI-Anwendung zu sein, die mit einem Mac verbunden ist und Anweisungen zur Unterstützung anzeigt.

Dort laufen leistungsfähigere Modelle, die auf mehr Arbeitsspeicher zugreifen und die den Stromverbrauch nicht interessieren. Mit Tailscale (+ Exit Node) klappt das von überall aus, solange der Mac erreichbar ist.

Aber wie bereits gestern angesprochen: Natürlich sollte Apple eine solche Funktionalität zwischen seinen Computern selbst anbieten.