Produkt

Warum wir einen Eingriffsschutz in unseren KI-Assistenten gebaut haben

Volle Automatisierung ist eine Falle. So hält unsere „Co-Pilot, nicht Auto-Pilot"-Philosophie den Menschen im Spiel, wenn es wirklich zählt.

7 Min. Lesezeit Veröffentlicht am 22. April 2026 Kategorie: Produkt

Diesen Artikel mit ChatGPT zusammenfassen

Wenig Zeit? Öffne ChatGPT mit einem vorausgefüllten Prompt, der den Artikel in 5 Bullet-Points zusammenfasst.

Zusammenfassen →

Die erste Version unseres KI-Host-Assistenten war vollautonom. Du hast Smoobu verbunden, die KI aktiviert, und sie hat ab diesem Moment jede Gästennachricht erledigt. Sauber. Einfach. Leicht zu erklären.

Drei Wochen Praxistest haben uns gezeigt, dass das ein Fehler war.

Das passierte: Ein Gast kam in einer Wohnung an und stellte fest, dass das Türschloss nicht funktionierte. Er schrieb dem Host um 23 Uhr. Die KI, trainiert auf den Apartment-Leitfaden, antwortete selbstbewusst: „Die Tür öffnet mit Code 4827 — bitte nochmal versuchen und die Klinke 3 Sekunden lang gedrückt halten." Perfekt logisch. Perfekt nutzlos — weil die Batterie des Smart-Locks eine Stunde vorher leer geworden war und kein Code mehr funktionieren würde.

Der Host bemerkte erst beim dritten Gastwunsch, dass etwas nicht stimmte. Da stand der Gast längst wütend im Regen. Die Bewertung: 2 Sterne. Der Host versuchte uns anzurufen. Wir riefen den Entwickler an, der die KI ausgerollt hatte.

Und wir haben uns die Architektur sehr genau angeschaut.

Die Illusion der Automatisierung

So ist das mit vollautomatisierten Gäste-Nachrichten: Sie funktionieren zu 95 % perfekt — und sie scheitern zu 5 % katastrophal. Diese Quote ist in Ordnung, wenn du ein Support-SaaS bist und eine schlechte Antwort nur ein Ticket erzeugt. Sie ist nicht in Ordnung, wenn du ein Kurzzeitvermieter bist — denn die Rückkopplung ist eine öffentliche 1-Stern-Bewertung, die dich 3 000 € an zukünftigen Buchungen kostet.

Die Antwort der Branche war: an der KI-Qualität arbeiten — bessere Modelle, mehr Trainingsdaten, engere Prompts. Das hilft, aber es löst nicht das Grundproblem. Das Grundproblem ist, dass die KI nicht weiß, was sie nicht weiß.

Ein Gast sagt „Hier ist es zu heiß." Die KI erklärt selbstbewusst, wie das Thermostat funktioniert. Sie weiß nicht, dass das Thermostat letzten Dienstag kaputt gegangen und der Techniker nicht gekommen ist. Sie kann es nicht wissen. Nur der Host weiß es.

Volle Automatisierung setzt voraus, dass die KI alle Informationen hat. Das tut sie nie.

Das Co-Pilot-Konzept

Wir haben das System mit einer anderen Prämisse neu gebaut: Die KI ist Co-Pilot, nicht Auto-Pilot. Ihre Aufgabe: die offensichtlichen 80 % der Gäste-Nachrichten erledigen — die, wo der Apartment-Leitfaden die Antwort hat, die Situation ruhig ist, der Gast nur eine schnelle Antwort braucht. Alles außerhalb dieser 80 % geht an den Host.

Drei Mechanismen lassen das funktionieren.

1. Der Eingriffsschutz

Sobald ein Host einem Gast antwortet — aus der Web-App, aus der Smoobu-App, aus jedem Kanal — markieren wir den Thread als „Host-Eingriff aktiv" und die KI zieht sich für 60 Minuten zurück. In dieser Stunde antwortet die KI nicht, egal wie viele Gästennachrichten eintreffen. Der Host ist jetzt im Gespräch; zwei Stimmen würden den Gast nur verwirren.

Nach 60 Minuten ohne weitere Host-Aktivität kehrt die KI vorsichtig zurück. Sie verarbeitet die letzte Gästennachricht, entscheidet, ob sie antworten oder eskalieren soll, und macht normal weiter. Aber sie weiß: Der Host hat diesen Thread kürzlich berührt — und sie ist für den Rest des Aufenthalts vorsichtig mit dem, was sie sagt.

2. Stimmungs-basierte Eskalation

Die KI liest jede eingehende Gäste-Nachricht und bewertet sie auf emotionale Signale. Wut, Dringlichkeit, Not, Verwirrung — jedes bekommt ein Gewicht. Über einem Schwellwert bricht die KI ab und eskaliert sofort. Keine Antwort. Der Host bekommt innerhalb von Sekunden eine Telegram-Karte.

Die Schwellwerte sind konservativ eingestellt: Wir bevorzugen False-Positive-Eskalationen (Host wird für etwas gepingt, das die KI hätte erledigen können) gegenüber False-Negatives (KI erledigt etwas, was einen Menschen gebraucht hätte). Eine verpasste Eskalation kann eine 5-Stern-Bewertung kosten. Ein fälschlicher Ping kostet den Host 10 Sekunden zum Abhaken.

3. Unknown-Unknown-Schutz

Wenn ein Gast eine Frage stellt, die im Apartment-Leitfaden nicht vorkommt, improvisiert die KI nicht. Sie eskaliert. „Gibt es einen Pool?" — wenn der Leitfaden keinen Pool erwähnt, sagt die KI nicht „nein, gibt es nicht" — sie eskaliert, weil der Leitfaden vielleicht einfach unvollständig ist.

Das ist die Regel, die das Kaputt-Schloss-Desaster verhindert. Die KI darf nur sagen, was der Leitfaden weiß. Weiß der Leitfaden es nicht, entscheidet der Host.

Ein KI-Co-Host, der weiß, wann er zurücktreten muss.

Du antwortest einmal — und die KI pausiert für das von dir gesetzte Fenster. Keine Doppelnachrichten, kein Bulldozen.

Gratis testen

Wie Eskalationen dich tatsächlich erreichen

Die Host-Oberfläche für all das ist Telegram. Wir haben uns dafür gegen E-Mail, SMS und Push-Benachrichtigungen entschieden, weil es drei Eigenschaften vereint: Es erreicht dich sofort, egal wo du bist, es zeigt reichhaltige Karten mit Aktions-Buttons, und der „gelesen"-Status ist ehrlich (anders als bei E-Mail, wo du technisch etwas geöffnet haben kannst, ohne es wirklich gelesen zu haben).

Eine Eskalations-Karte sieht so aus:

🚨 Eskalation — Sunset Studio
Gast: Sarah M. (kommt morgen an)
Nachricht: „Der Türcode, den du geschickt hast, funktioniert nicht. Ich stehe draußen. Nichts öffnet sich."

Antwort-Vorschlag: (der beste Vorschlag der KI, zur Referenz)

[ 🔕 1 Std. pausieren ] [ ✅ Erledigt ] [ 💬 Antworten ]

Drei Buttons. „1 Std. pausieren" schweigt die KI für diesen Thread eine Stunde lang, damit du übernehmen kannst, ohne dass die KI wieder einspringt. „Erledigt" markiert ihn als gelöst und schiebt den Automation-Watermark vor, damit der Thread nicht erneut eskaliert. „Antworten" öffnet ein Swipe-Reply-Textfeld direkt in Telegram — dein Text geht über Smoobu direkt an den Gast, die KI pausiert automatisch eine Stunde.

Jede Aktion wird sofort mit der Web-App synchronisiert. Du kannst die intensivsten Situationen aus dem Zug, im Garten oder um 2 Uhr morgens im Bett managen — ohne je einen Laptop aufzuklappen.

Der Eskalations-Herzschlag

Noch ein Detail. Bleibt eine Eskalation 15 Minuten ungelöst, pingen wir nochmal. Weitere 15 Minuten, nochmal. Bis zu dreimal, dann wird es still — wir gehen davon aus, dass du entweder nicht kannst oder nicht antworten willst, und wir wollen nicht zu Spam werden.

Das gibt es, weil Hosts Menschen sind. Man übersieht Benachrichtigungen. Man schaltet Telegram beim Abendessen stumm. Eine wichtige Eskalation sollte nicht sterben, nur weil der erste Ping im falschen Moment kam.

Was diese Philosophie uns kostet

Ein Co-Pilot zu sein ist strikt teurer als ein Auto-Pilot. Jede Eskalation kostet Entwickler-Aufmerksamkeit (wir müssen die Eskalations-Logik feintunen). Jede Host-Interaktion kostet Infrastruktur (wir müssen zu Telegram und zurück). Jede False-Positive-Eskalation kostet dem Host ein paar Sekunden Ärger.

Aber die Rechnung geht auf. Ein Host, der der KI vertraut, weil sie ihre Grenzen kennt, aktiviert Autopilot auf allen fünf Apartments. Ein Host, der einmal von einer übermäßig selbstsicheren KI verbrannt wurde, deaktiviert sie für immer. Der Wert von „ich kann das wirklich anlassen" übertrifft die Kosten gelegentlicher zusätzlicher Pings bei weitem.

Vertrauen zu Hosts aufbauen

Wir glauben, dass die nächste Generation KI-Produkte nicht daran gemessen wird, wie viel sie autonom erledigen, sondern daran, wie gut sie wissen, was sie nicht wissen. Der Eingriffsschutz ist unser erster Versuch. Er ist nicht perfekt. Aber er ist der Grund, warum unsere Nutzer mit eingeschalteter KI schlafen können — und das ist der Maßstab, an dem wir uns messen.

Sieh die Co-Pilot-Philosophie in Aktion.

Aktiviere den Autopiloten, wenn du bereit bist. Deaktiviere ihn mit einem Klick. Beobachte, wie die Eskalationen ankommen.

Virtual Host AI testen
← Zurück zu allen Artikeln