Warum das Siri Business-Modell Android röstet – und auch für Apple eine riskante Wette ist

siri_roaster.png
Die letzten zwei Tage, habe ich mir die Frage gestellt, warum Siri für das iPhone 4S limitiert ist. Auf den ersten Blick scheint es Willkür zu sein. An den Hardware-Voraussetzungen kann es nicht liegen: das iPad 2 hat alles, was das neue iPhone ausmacht. Eine mögliche Erklärung: Apple will die für Siri notwendige Serverfarm mit der schrittweisen Markteinführung der Devices kontrolliert hochfahren.
Meine Vermutung ist allerdings eine andere: es sind die Kosten.
Wie ich bereits vor einigen Tagen beschrieben habe, ist der Kern von Siri keinesfalls die (erstaunlich gut funktionierende) Spracherkennung. Der Clou ist die dahinter liegende AI-Maschine. Bei jeder Frage an Siri findet im Hintergrund eine Kommunikation zwischen dem iPhone 4S und Apples zentraler Cloud statt.
Was kostet nun ein Siri-Dialog? Das weiss natürlich niemand außer Apple. Ich halte es aber für fair anzunehmen, dass ein Siri-Dialog ungefähr in der Kostenregion einer Google-Abfrage liegt. Hierfür gibt es einigermaßen plausible Schätzungen, welche die Kosten bei rund 1 ct sehen. Gegenprobe: Unternehmen, die Google als Onsite-Service nutzen wollen, zahlen 2 ct.
Ich halte also die Kosten von 1 ct für eine Siri-Anfrage eher für eine untere Schranke (vor allem wenn man bedenkt, dass Google 10 Jahre darin geübt ist, seine zentralen Data Center kostenseitig zu optimieren).
Und jetzt wird’s spannend. Wie viele Siri-Dialoge macht ein durchschnittlicher iPhone-Nutzer? Das wüsste Apple wohl auch gerne. Eine Modellrechnung: bei 10 Dialogen täglich ergeben sich 3.650 Dialoge im Jahr. Multipliziert mit 1ct macht das einen Kostenblock von $36 per anno. Bei einer Marge von 70% für das aktuelle iPhone über eine Nutzungsperiode von 3 Jahren kann das Apple locker wegstecken.
Und das ist ein Problem für Google und sein Android Eco-System. Google refinanziert Android mit seinen Mobile-Search-Einnahmen. Die belaufen sich aktuell bei rund $10 pro Jahr und Device. Weitere Erträge durch Lizenzen oder Hardware gibt es (bislang) nicht. Das ist am Ende durch die schiere Anzahl der Android-Devices eine Menge Geld – reicht aber bei Weitem nicht, einen Cloud-basierten Assistenz-Dienst wie Siri wirtschaftlich zu betreiben. Würde Google einen Siri-Clone starten, würde Google das mehr als $20 pro Endgerät und Jahr an Verlust einbringen und gleichzeitig verlieren sie textbasierten Adword-Umsatz. Auch hier macht’s wieder die Menge – nur mit umgekehrten Vorzeichen.
Wenn die Konsumenten Siri lieben werden, schafft es neben einem extrem starken Lock-in auch ein großes Problem für das Mobile-Geschäft von Google. Ein Cloud-basierter Assistenz-Dienst ist heute ohne die gigantische Hardware-Margen nicht finanzierbar. Und welcher Anbieter besitzt diese heute außer Apple?
Einen zu großen Erfolg für Siri kann Apple sich paradoxerweise aber auch nicht leisten. So lange die Serverkosten nicht wesentlich unter 1ct/Dialog sinken, würde Apple in arge Bedrängnis kommen, wenn statt 10 beispielsweise 100 Dialoge täglich zwischen iPhone und der Siri-Maschine stattfinden: die schönen Margen wären im Nu verzehrt. In diesem Fall müsste Apple sehr schnell beginnen, selbst ein eigenständiges Business-Modell für die Siri-Nutzung zu entwickeln.

Apples Siri und die Post-PC Welt

icloud-and-siri.png
Disruptive Innovationen passieren nicht über Nacht. Ganz langsam schleichen sie sich in unser Leben, verändern unser Verhalten und erst in der Rückschau wird uns bewusst, dass sich unsere Welt verändert hat.
So war es mit dem PC, dem WWW, dem Smartphone. Das Ziel, die Post-PC Welt zu dominieren, könnte Apple mit dem iPhone 4S erreichen.
Wie das? Der Schlüssel hierfür, ist Siri. Der neue Service ist wesentlich mehr als eine Spracherkennung, hinter dem Projekt steckt harte AI und $150 Mio aus dem amerikanischen Verteidigungsetat. Siri „versteht“ nicht nur die Syntax, sondern die Semantik hinter den Worten. Apple spricht daher auch von einem „Personal Assistant“.
Der wesentliche Punkt ist aber, dass Siri lernt. In den Demos sieht man es sehr schön: „Schreibe Tom, dass ich unterwegs bin“, „Erinnere mich an den Zahnarzttermin, wenn ich im Büro bin“ oder „Ruf mir ein Taxi“. Dass funktioniert nur, wenn die AI-Engine mein persönliches Lebensumfeld mit der Zeit lernt. Und das passiert nicht auf dem Gerät selber, sondern in der zentralen iCloud. Ohne WLAN und 3G geht nichts. Die Konsequenzen lassen sich erst grob skizzieren:

  1. Siri wird auf allen meinen IOS-Devices laufen. Mein Persönlicher Assistent wird mich unterwegs kennen (via iPhone), auf dem Sofa (via Apple TV), im Bett (via iPad) und am Schreibtisch (mit der nächsten OS X Generation).
  2. Die Software ist Beta. Aber die Integration von Yelp und Wolframs Alpha zeigt, dass Siri immer mehr Services im Alltag aufsaugen wird. Apple wird mich besser kennen als Google und Facebook. Damit greift Cupertino die zentralen Werbeerlösmodelle der beiden an.
  3. Es ist der perfekte Lock-in. Wenn ich aus der Apple-Welt aussteige, verliere ich auch mein über Jahre personalisiertes AI-Modell, welches in den Rechenzentren von Apple mit meinem Account verbunden ist. Wer kündigt seiner langjährigen PA?