KI meets Telefonie
Shownotes
In dieser Folge dreht sich alles um:
- die Integration von KI in der STARFACE Software,
- rechtssichere und datenschutzkonforme KI-Nutzung im Unternehmen,
- Schulung von Mitarbeitenden für den Einsatz von KI,
- unsere interne KI-Lösung "STARFACE AI",
- die Einsatzmöglichkeiten von KI mit der STARFACE Telefonanlage,
- Herausforderungen und Erfolge bei der Weiterentwicklung von KI-Funktionalitäten
und alles, was es zum Thema KI und STARFACE sonst noch zu sagen gab.
Transkript anzeigen
00:00:00: Im Starface Podcast dreht sich heute alles um künstliche Intelligenz. Zu Gast bei uns sind
00:00:04: Jenny und Christoph aus dem Starface Produktmanagement. Mit den beiden reden wir über den Einsatz von
00:00:09: KI bei Starface und über die Integration von KI in Starface. Wir geben einen Überblick über
00:00:14: die aktuellen Möglichkeiten mit KI und Starface echte Mehrwerte zu schaffen und wir geben bereits
00:00:19: einen kleinen Ausblick auf alles was zukünftig in puncto KI noch kommt.
00:00:27: Jenny, Christoph, vielen Dank, dass ihr da seid. Das ist ja tatsächlich nicht das erste Mal,
00:00:32: dass wir Thema KI hier im Podcast überhaupt anreisen. haben hier und da mal mit einem
00:00:37: anderen Gast schon dahin abgeschweift, ich mal. Interessanterweise bin ich mal zurückgegangen
00:00:42: in die allererste Folge von Comfort Talking, die wir mit Jürgen Siegner aufgenommen haben
00:00:47: aus unserer Geschäftsleitung. Und ich zitiere mal kurz, weil wir damals auch, das war ja
00:00:52: vor fast zweieinhalb Jahren ... Januar. Als der richtige Hype losging um Chet GPT, da haben
00:00:59: wir mit ihm das Thema auch bisschen angerissen. Auch wenn es darum geht, was Unternehmen machen
00:01:04: sollten. Und er meinte dazu, ich empfehle jedem Unternehmen, sich mit dieser Technologie auseinanderzusetzen.
00:01:10: Wir werden uns auch bei Starface darüber Gedanken machen, wo es sinnvolle Einsatzmöglichkeiten
00:01:13: gibt. Und ich denke, das Feld wird riesig sein. Diesen Beispiel ich gerne weiter. Wie riesig
00:01:19: ist das Feld? Wie groß ist es heute, wenn wir über KI bei Starface sprechen? Riesig. Also
00:01:26: die Prognose von Jürgen war absolut richtig an der ganzen Geschichte. ich mein, wenn man
00:01:31: so zurückguckt in den zwei Jahren, ist es ja irre, wie schnell sich da die ganze Welt bewegt.
00:01:37: Und auch, finde ich so persönlich, wie schnell man auch Sachen als selbstverständlich plötzlich
00:01:43: akzeptiert, die vor zwei Jahren noch wow waren. Inzwischen einfach so, ja klar, Text noch
00:01:49: selber schreiben. Wieso? Ein paar Stichworte und das war's. Also das ist ja eine unglaubliche
00:01:54: Geschwindigkeit, auch dass wir so sehen, die Weiterentwicklung in den einzigen Large-Language-Models,
00:01:58: in sowas wie Dairy mit der neuen Variante, die das gebracht haben, ist ja nochmal wieder
00:02:05: ein Riesenschritt. Also das ist unglaubliches Thema, da drin ist. Und wir halten es nach
00:02:09: wie vor für total wichtig, dass sich jedes Unternehmen nicht nur produktseitig damit beschäftigt.
00:02:15: Also das ist ja die Geschichte, dass man einfach wettbewerbsfähig bleiben muss. Da kommen wir
00:02:20: sicherlich später nochmal drauf, was wir da machen. Und die andere Seite ist halt die
00:02:25: internen Abläufe, die internen Vorteile und Produktivitätssprünge, die man einfach machen
00:02:31: kann. Und das sind ja zwei komplett getrennte Sachen. Meine Sicht der Dinge ist eigentlich
00:02:35: so, in Deutschland, in der Industrie, Tendenz wird eher auf der Produktseite erst mal geguckt,
00:02:39: marktseitig kann man es verbessern und weniger, was kann ich intern eigentlich tun, damit meine
00:02:43: Mitarbeiter da auch mit arbeiten können. Also tatsächlich bei uns finde ich auch ganz, ganz
00:02:49: erfrischend, dass das relativ schnell Meiner Meinung nach finde ich auch mitgedacht wurde.
00:02:53: hast gerade angesprochen, dass vieles Gewöhnungssache ist. Der Mensch ist ja ein Gewohnheitszieher
00:02:57: und gewöhnt sich dann auch schnell. Was in meinem täglichen Doing mir total aufgefallen ist,
00:03:02: ist, dass man eigentlich kaum noch, gerade wenn man viel textlich verarbeitet, was schreibt,
00:03:08: dass man kaum noch mit dem weißen Leerenblatt Papier anfängt, sondern man immer sich schon
00:03:12: mal mit KI auf Basis von Ressourcen, die man eben hat. eine Skizze erstellen lassen kann.
00:03:19: Das sind so Dinge, die einem wirklich aufgefallen sind. Die sind einfach weg. Also ich sitze
00:03:23: nicht mehr vor einem leeren Word-Dokument und scribble mir irgendwie eine Struktur für einen
00:03:27: Text hin. Nee, macht keiner Sondern da arbeitet man einfach dann wirklich wie mit so einem
00:03:32: Gegenüber, um sich dann eine Textstruktur zu erstellen. Was sind so Dinge, die euch in eurem
00:03:37: Arbeitsalltag aufgefallen sind, wenn es wirklich auch darum geht, wo man sich dran gewöhnt hat,
00:03:43: damit kreiert zu arbeiten? Naja, also die Texterstellung war auf jeden Fall ganz vorne mit dabei. Und
00:03:49: auch, wenn ich an Miro-Sachen denke, an Flow-Diagramme oder so, die erarbeite ich mit KI. Und übernehmen
00:03:57: sie dann je nachdem in Miro oder eben auch nicht. Und da haben wir ganz viele Sachen, die wir
00:04:03: eigentlich nur noch mit KI als Blaring machen, die dir super viel Zeit ersparen. Also eine
00:04:08: Anekdote bei uns, was mir eigentlich so den Nutzen am plastischsten gebracht hat, war,
00:04:14: Wir machen ja regelmäßig unsere Webinare, die Partner Webinare. Wenn wir ein neues Major
00:04:18: Release haben. Da sind ja in Regel so 500, 600 Teilnehmer dabei, also relativ groß. Wo dann
00:04:24: während des Meetings Fragen gestellt werden können. Wir versuchen natürlich unser Bestes
00:04:28: während des Meetings die Fragen schon so ein bisschen zu beantworten, aber ist einfach bei
00:04:31: der schieren Masse, da kommunert er von Fragen rein kaum möglich. Und wir machen immer schon
00:04:36: anschließend ein FAQ Dokument dann daraus, was wir veröffentlichen. Das war bisher ein riesen
00:04:40: Aufwand. Allein die ganzen Fragen thematisch zu sortieren. Und jetzt beim letzten Mal, ich
00:04:48: glaube, wir waren nach einer Stunde durch. Und zwar nicht nur sauber geklustert auf die 30
00:04:52: relevanten Themen, sondern auch schon beantwortet. Wobei natürlich die Antworten in der ersten
00:04:57: Video von uns waren. Das ist bisschen anders als das, du gerade geschildert hast. Da kommt
00:05:00: natürlich von uns der Input. Wir lassen es dann nochmal sauber glätten, sagen wir mal. gucken
00:05:07: noch einmal zur Kontrolle drüber, das ist immenser Zeitpunkt. Genau, auch bei den Release Notes,
00:05:13: bei Major Release. Das ist super umfangreich, es sind so viele Sachen. Der Input kommt von
00:05:17: uns, du lieferst die Bullet Points und du bekommst einen schönen Text. Ja, ähnlich ist es tatsächlich
00:05:23: auch hier mit der Podcast-Erstellung. Ich gehe nicht hin und tippe jedes Wort Wort für Wort
00:05:30: ab, sondern das Transkript wird erstellt, ist dann eher... eine Frage nochmal von, wie gesagt,
00:05:34: Qualitätsprüfung, auch wenn es darum geht, das Ganze gescheit zusammenzufassen. Dann prüft
00:05:39: man lieber nochmal einzelne Punkte nach, denn die KI ist ja manchmal auch nicht ganz so I,
00:05:44: sondern nur K. Aber ja, ist natürlich, der Zeitaufwand hat sich da einfach drastisch reduziert tatsächlich.
00:05:53: Aber immerhin reden wir noch persönlich miteinander. Das ist schön. das ist schön. Kommt vielleicht
00:05:59: irgendwann auch mal anders. Kann sein. sein. Machen wir mal einen Schritt zurück, wenn wir
00:06:06: darüber sprechen, wie wir das Thema bei uns, für uns intern nutzen und wie wir das Ganze
00:06:11: aufgezogen haben. Christoph, du warst ja auch ein bisschen federführend in dem Projekt.
00:06:16: Wie sind wir da vorgegangen, wenn es darum geht, KI-Beis dafür ist nutzbar zu machen, erstmal
00:06:20: für uns? Ja, hat halt so verschiedene Dimensionen, die man betrachten muss. Das eine ist, wenn
00:06:26: man jetzt mal zurückblickt, wir haben relativ schnell gesagt, okay, wir wollen positiv Beispiele
00:06:31: kreieren im Haus. Und einfach zu zeigen, was so geht. Später kamen auch ein rechtliche Themen
00:06:37: mit dazu, ... da kann ich gleich immer ein bisschen was zu sagen. Aber das war so der erste Schritt
00:06:40: und da haben wir ... damals eben überlegt, ... suchen wir jetzt einzelne Teams raus und sagen,
00:06:45: ... okay, lass uns einmal zusammenarbeiten. Dann haben wir eigentlich gesagt, nee, ...
00:06:49: lass uns das mal ganz frei machen, weil ... keiner kann sagen, was Marketing ... da braucht,
00:06:55: was das Enginieren braucht, ... was das Support braucht, was Produktmanagement. Das ist relativ
00:06:59: schwierig, denke ich, das Zentral. zu erfassen. konnte auch noch niemand so richtig greifen.
00:07:05: Ja, wahrscheinlich auch die Anwendungsszenarien so divers sind, dass man es irgendwie gar nicht
00:07:11: über ein Muster irgendwie drüber legen konnte, schätze ich. Also wenn du eines Tages so
00:07:18: Leuchtungprojekte machst und da kommen wir jetzt eben hin, dann wirst du genau sagen müssen,
00:07:21: ok, Support, und das das. Aber da ging es ja zunächst einfach mal um Kreativität zu kommen
00:07:27: und uns attraktiv zu machen, weil es natürlich Damals insbesondere, aber inzwischen immer
00:07:33: noch den ein oder anderen Mitarbeiter gibt, sagt, naja, Interessiert mich jetzt nicht so
00:07:39: total. Brauche ich auch nicht und hilft mir auch nicht. Die gibt es überall oder ich habe
00:07:43: auch Angst davor, dass mir mein Job nimmt. Und wir haben damals das sogenannte Prompto Pizza
00:07:48: Format etabliert. Da war eben genau diese Idee, die Leuten, die Spaß dran haben, die zusammenzuholen.
00:07:55: Den haben wir in Chachibetit in Zugang damals jeweils von der Firma ausgegeben. Da haben
00:07:59: wir uns so... drei Wochen oder so was, glaube ich, ... war es in der Größenordnung ... ...
00:08:03: einfach zusammengesetzt. Das waren so zehn Leute plus minus. Haben es bewusst abends um 17 Uhr,
00:08:09: ... nachmittags 17 Uhr erst begonnen, weil wir gesagt haben, da möchten wir auch wirklich
00:08:12: nur ... ... sagen, das ist mir auch wert. Ja. Adopters. Und haben dann einfach ... erstmal
00:08:19: einen Austausch gemacht. Wer hat welches neue Tool kennengelernt, ... wenn kann es mal vorstellen.
00:08:25: Waren also von daher so ein bisschen Training. Was waren da für neue Sachen? Da waren spannende
00:08:28: Sachen. Wenn man an die Musikstücke von Starfish und von letzten Conventionen denkt, das ist
00:08:33: ja letztlich auch aus einer dieser Prompto Pizza Events entstanden. Haben das gemacht, haben
00:08:39: dann in der Regel eine Aufgabe gestellt, wo dann die Teams nochmal zusammengearbeitet haben,
00:08:43: um mit der KI diese Aufgabe zu lösen. In der Zwischenzeit haben wir dann Pizza besorgt und
00:08:48: dann war während der Ergebnispräsentation noch Pizzaessen zusammen und das war einfach so
00:08:52: richtig Starfish Spirit. Ja, das stimmt. Gerade in der Anfangszeit war es ja auch wirklich
00:08:58: so, sind Tools aus dem Boden geschossen, ich mal. Manches war dann vielleicht auch eher
00:09:03: irgendwie nur software-seitig ein anderer Rapper, sag ich mal, für das Gleiche. ja, dann kamen
00:09:09: auch wirklich viele verschiedene Tools. Mittlerweile hat man das Gefühl, es hat sich ein bisschen
00:09:13: konsolidiert. Wenn es so wirklich darum geht, naja, das ist Einsatzzweck dafür, das ist Einsatzzweck
00:09:19: dafür. Klar, gibt immer noch Lösungen, die versuchen, viel abzudecken. Gerade natürlich von den Großplayern,
00:09:24: OpenAI und Co. Wie sind wir dann vorgegangen oder wie seid ihr vorgegangen, wenn es darum
00:09:30: geht, wie machen wir das Ganze zugänglich für die breite Masse bei uns? Genau. Also nachdem
00:09:38: wir eben diese Key Group da etabliert hatten, haben wir dann gesagt, okay, jetzt haben wir
00:09:43: genug Erfahrung gesammelt, um mal zu gucken, was wir tatsächlich brauchen. Letztlich haben
00:09:47: wir gesagt, okay, im ersten Schritt was Chatchabit ähnliches. Da kamen wir eben dann zu der rechtlichen
00:09:52: Thematik, amerikanische Company. rechtlich gesehen einige Aspekte. Das eine ist Datenschutz.
00:10:02: Okay, das fällt gerade in Deutschland sowieso jedem als erstes ein. Persönlich bezogene Daten
00:10:07: da reinzubringen. halt problematisch. Also wenn ein Support-Mitarbeiter einen Lockfile da reinbringt,
00:10:13: da sind personenbezogene Daten drin. Das können wir halt einfach nicht so machen. Das heißt,
00:10:19: das muss irgendwie bisschen reguliert werden. Aus unternehmerischer Sicht kommt noch ein
00:10:24: zweiter Aspekt mit dazu, nämlich Geschäftsgeheimnisse. ist gar nicht das Thema Datenschutz, ... einfach
00:10:29: Dinge, ... Protokolle, Gesprächsprotokolle, ... Meetingprotokolle, ... Quellcode, ... ...
00:10:35: all solche Sachen, ... sollte man auch nicht einfach ... ChatGBT zur Verfügung stellen.
00:10:40: Deswegen haben wir gesagt, ... wir brauchen da eine Lösung, ... die das sicherstellt ...
00:10:44: ... und gleichzeitig ... attraktiv genug ist, dass die Leute eben auch freiwillig sagen,
00:10:48: ... okay, da nutzen wir nicht ChatGBT, sondern unser eigenes ... und da haben wir dann ...
00:10:54: auf Basis von Azure, Microsoft Azure, weil das da eben richtig so geregelt ist, ... eine eigenes
00:10:58: Frontend gebaut ... ... und dann war Jenny dann auch maßgeblich mit beteiligt. Ja, richtig.
00:11:05: Wir haben in der Azure-Umgebung ... ... TGPT angebunden und andere Modelle, ... ... auch
00:11:12: Lama zum Beispiel ... oder eben Dali und Bilder zu erstellen ... ... und so ist es halt einfach
00:11:17: in einer sicheren Umgebung. Mittlerweile haben wir auch schon ... Vor-O und Vor-O Mini mit
00:11:21: drin. so ... Wir bewegen uns da immer weiter und versuchen auch immer neuere Modelle anzubinden,
00:11:28: einfach, dass wir da aktuell bleiben und haben das Ganze eben in einer sicheren Umgebung für
00:11:32: uns liegen, sodass die Star-Fest-Daten nicht nach außen gehen. Was halt einfach das Wichtige
00:11:37: daran ist, ne? So bleiben die Geschäftsgeheimnisse intern. Ja. Wie seid ihr da vorgegangen,
00:11:45: wenn es darum geht, jetzt in diesen, also anfangs war es ja ein Prototyp, sage ich mal, was der
00:11:50: Umfang von dem Prototyp sein soll. Wenn es darum geht, okay, wir schaffen jetzt eine Umgebung
00:11:56: für alle internen Mitarbeiter. Was soll da rein? Es war erstmal ein bisschen kritisch. Also
00:12:01: erstmal haben wir uns auf ein öffentliches GitLab-Projekt geeinigt gehabt, was wir in unser Git umziehen
00:12:06: wollten. Das hat nicht ganz so gut funktioniert und dann kamen wir eben auf die Azure-Lösung.
00:12:11: Und jetzt ist es auch so, dass wir es stetig noch weiterentwickeln müssen. Es sind noch
00:12:16: nicht alle Funktionen drin, die im öffentlichen JGBT drin sind. Vorhin habe ich gerade von
00:12:22: Text into Flow geredet. Das funktioniert noch nicht ganz so gut. Aber daran arbeiten wir,
00:12:29: sodass wir im Endeffekt alle Funktionen, die JGBT hat, mal abdecken können. Genau. Jetzt
00:12:34: ist es ja mittlerweile auch gar nicht mehr nur irgendwie ein Zugang zu Standard-JPT4O, sondern
00:12:41: es ist ja noch ein Es ja noch ein bisschen mehr, es ist ja ein bisschen Customizing passiert.
00:12:45: Es ist ja die Starface AI geworden. Wo ist da das Customizing passiert? Was kann die Starface
00:12:53: AI, was ein normaler Chat-GBT-Zugang nicht kann? Wir haben viele Starface-Daten drin. Also da
00:12:58: fangen wir bei unserem Wiki an als Datenbasis. Confluence kommt als nächstes mit rein, unser
00:13:04: internes Wiki. Und so wird es immer mehr zu der Starface AI. Ich glaube, das ist ja auch
00:13:10: ein guter Ansatz für Unternehmen, die sagen, Wir möchten das sicher unter unserer Kontrolle
00:13:15: zugänglich machen und dann natürlich aber auch anreichend mit allem, was wir eh schon haben.
00:13:19: Dass man nicht jedes Mal, weil wenn ich auf chatgbt.com gehe, fange ich bei Null an, müsste
00:13:25: ich erstmal alles, was ich an Wissen voraussetzen kann bei der Staffel, ja jetzt müsste ich erstmal
00:13:30: alles mit reinfüttern. Ja, wenn wir Richtung die Zukunft denken, dann wäre so eine Mobile
00:13:37: App natürlich auch was Schönes. Also konkretes Beispiel in dem Produktmanagement haben wir
00:13:43: zum Beispiel für die Erstellung der User Stories, speziellen Custom GBT, dann auf Basis von unserer
00:13:48: Lösung gebaut, was auch unglaubliche Produktivitätsvorteile bringt. Also wir sind einfach schneller und
00:13:54: sie sind ähnlicher. Und da kann man im Dialog einfach so ein Use Case mal erarbeiten. Das
00:14:01: bringt einfach total viel. KE als Bearing. Genau. Umgekehrt muss man vielleicht auch sagen, wir
00:14:06: sind auch an Grenzen gestoßen. Nehmen wir das mal mit, wer im Supportforum unterwegs ist,
00:14:10: vom Staffessupportforum. Erinnert sich vielleicht noch dran, letztes Jahr haben wir da ein AI-Bot,
00:14:14: also dem als solches auch gekennzeichnet haben, mal mitdiskutieren lassen unter kontrollierten
00:14:19: Bedingungen. wir haben die Diskussion gefüttert, haben Antwort generieren lassen, haben die
00:14:24: nochmal drüber geguckt und haben die mal reingegeben, um zu gucken, wie es ist. Und da haben wir
00:14:29: einfach gemerkt, okay, da ist so viel Expertise in den Diskussionen dann drin. Das kriegen
00:14:35: wir nicht so über einen Bot hin. Das ist viel zu tiefgehendes Wissen. Ohne wahnsinnigen Aufwand,
00:14:44: ich mal. Theoretisch müsste man den mit, ja, weiß nicht, wie lange das Forum schon besteht,
00:14:49: aber der müsste eigentlich das ganze Wissen schon haben, was da jemals diskutiert wurde.
00:14:54: Haben wir tatsächlich reingepackt. Ist das so? Und es hat trotzdem nicht gereicht. Und ein
00:15:00: bisschen so Geschichten, dann haben wir natürlich nachgeprompt und so weiter. Und irgendwann
00:15:03: haben wir mal über kurze Zeit, ist völlig abgedreht und hat für jede Lösung Microsoft Teams angeboten.
00:15:09: Wollten wir natürlich dann nicht unbedingt haben. Keine Ahnung, wie er da drauf gekommen ist.
00:15:14: Und dann ist es ja auch keine Erleichterung, wenn man dann noch 15 Mal drüber gucken muss
00:15:18: und dann noch mal alles irgendwie korrigieren muss, dann kann man es auch irgendwie direkt
00:15:21: wieder abschaffen, zeige ich jetzt mal. okay. Dann kann man es auch selbst machen. Ja, eben.
00:15:26: Dann ist es wie gesagt keine Effizienz-Stärkerung. Ja. Ja, okay. Genau. Aber diesen Feintuning-Aufwand
00:15:31: muss man wirklich sagen. Ich habe ja auch die Starface AI so bisschen von Kinderschuhen an
00:15:37: zumindest als Test-User angewendet und das Feintuning, was da noch nötig ist, hat wirklich stark abgenommen.
00:15:44: Klar, mit allem, was an Starface Hintergrundwissen eh schon reingefüttert ist, mit den Custom-GPTs,
00:15:49: die man sich erstellen kann, hat man da schon wirklich eine sehr, gute Basis. Und dann,
00:15:55: Jenny, muss man ja auch sagen, kann man natürlich so ein AI-Tool nicht einfach auf alle loslassen.
00:16:00: Absolut Es muss ja auch bisschen ja, nicht nur Wissen vermittelt werden, sondern auch
00:16:05: ein Rahmen geschaffen werden. Ja, vielleicht können wir das auch am Exemplar-Starface einmal
00:16:11: darstellen, wie sowas aussehen kann. Ja, wir haben angefangen, uns Gedanken zu machen, wie
00:16:16: wir das Wissen an die Leute bringen, haben eine Schulung vorbereitet und gerade auch in Hinsicht
00:16:23: auf den EU-AI-Act. dass, wenn KI-Nutzung in Unternehmen stattfinden soll, dass die Mitarbeiter
00:16:29: hinsichtlich geschult werden müssen. Wir haben uns Gedanken gemacht, mit dem Datenschutzbeauftragten
00:16:35: abgestimmt, mehrfache Runden gedreht. Keine Forderungen, Endeffekt dann eine Schulung und
00:16:41: Webinare für alle Mitarbeiter angeboten in der Staffis-Gruppe. Das ist sehr gut gelaufen,
00:16:47: das haben alle teilgenommen. Das Webinar steht auch im Nachgang immer zur Verfügung für neue
00:16:51: Mitarbeiter. Und hier gehen wir jetzt auch dann erstmal weiter. Wir gehen Richtung praxisbezogene
00:16:57: Schulungen, die sich dann eben auch auf Abteilungen beziehen sollen, wo wir dann einfach in die
00:17:03: verschiedenen Bereiche ein bisschen tiefer einsteigen. Die erste Schulung war jetzt mehr Basiswissen.
00:17:09: Wie benutze ich das Tool überhaupt? Was sind denn Plug-ins? Was machen die verschiedenen
00:17:13: Modelle? Und dann geht es eher jetzt Richtung Prompting und tieferes Wissen. Das ist Fine-Tuning.
00:17:20: Das ist ein interessanter Punkt. glaube, wird es auch zukünftig da hingehen in Unternehmen,
00:17:27: es sowieso wie ein generelles Datenschutz-Webinar oder eine Einführung, Teil des Onboarding ist,
00:17:33: wird sicherlich in vielen Unternehmen zukünftig auch einfach einen Onboarding-Part geben, der
00:17:39: nicht um die Anwendung von künstlicher Intelligenz dreht. Ist es bei uns ja jetzt schon. Also
00:17:42: das Webinar ist muss für jeden Mitarbeiter. Ansonsten dafür ist es auch nicht nutzen. Und
00:17:48: auch die Nutzungsvereinbarungen können nur nach der Teilnahme an der Schulung bestätigt werden.
00:17:55: Die rechtlich notwendig sind. Ja. Krass. Also nicht krass im negativen Sinne, einfach gut.
00:18:01: Dass da der Deckel irgendwie drauf ist. Wir sind doch wirklich schon relativ weit. Es war
00:18:06: auch die Rückmeldung von unserem Datenschutz beauftragt, dass viele Unternehmen da einfach
00:18:10: noch nicht ganz so weit sind. Ja, cool. Genau. Produktseitig hatten wir in der Vergangenheit
00:18:17: ... Das eine oder andere, wo man sagen kann, ist KI. Stichwort Noise Filtering zum Beispiel.
00:18:22: Aber mit unserem letzten großen Major Release, Starface 9, kam dann wirklich das Schlagwort
00:18:28: KI mit in die Software. Fangen wir vielleicht einmal kurz damit an. Wir haben ja das Release
00:18:34: auf der Convention vorgestellt. Jenny, hast es unter anderem auch im Detail nochmal im
00:18:40: Workshop erläutert. Wie war da die erste Resonanz der Partner zu allem, was ... künstlichen
00:18:48: Intelligenz, Integration in der Software da ist. Also was das Noise Filtering angeht, gerade
00:18:56: in den Apps, das kommt super gut an. hatten wir auch so, das hatten wir relativ schön vermarktet.
00:19:02: Da saß eine Kollegin auf einer Baustelle und sie konnte trotzdem telefonieren. War ein ganz
00:19:06: guter Hintergrund. auf einmal am anderen Ende. Richtig. Das Video gibt es auch auf YouTube.
00:19:10: Also, es interessiert ist, dort zu finden. Ja, das war echt ganz cool. Dem, was wir mit
00:19:16: Starface 9 geliefert haben, das waren dann quasi eine Chat-GBT bzw. OpenAI-Anbindung über unsere
00:19:23: Modulfunktionen. Das heißt, erstmal großartig zugänglich für die Leute, die wirklich Module
00:19:29: bauen und dadurch KI für den Anrufer nutzbar machen können. Die Resonanz war geht so einfach,
00:19:40: weil es nicht für jeden zugänglich war. Wir haben die Modulfunktionen geliefert. Das heißt,
00:19:46: man muss sich wirklich ein Modul bauen. Man muss das Wissen dazu haben. Dazu haben wir
00:19:52: übrigens auch eine Schulung, die Modul Creator, falls sich dafür jemand interessiert. Genau,
00:19:58: steht den nächsten Monat wieder an. da wisst ihr mehr als ich. Und dann war es halt einfach
00:20:05: so, dass es nicht ganz so greifbar war. Wir haben Chat, Text to Speech und Speech to Text
00:20:11: angeboten. mit den Daten in die USA, also direkt mit einer Schnittschelle zu OpenAI über einen
00:20:16: eigenen APK und eben auch über lokal, also in einem Staffel Rechenzentrum gehostet über Whisper,
00:20:25: was grundsätzlich eine gute Idee war, so als ersten Step, aber hier wollen wir jetzt natürlich
00:20:29: weitergehen und nativ mehr liefern, sodass es wirklich für jeden zugänglich und greifbar
00:20:35: gemacht wird. Genau, das heißt bei den Partnern war es ein bisschen wie es bei uns am Anfang
00:20:39: auch war, die die wirklich eh schon drin waren. Das sind ja auch die Partner, die eh schon
00:20:45: Module entwickeln, die wirklich technisch tief drin sind. Die konnten damit dann auch gleich
00:20:50: von Anfang an mehr anfangen. Richtig. Die haben auch schon Module gebaut. Und zum Beispiel
00:20:56: gab es so was wie eine Sprachsteuerung. Man konnte eine zeitgesteuerte Umleitung setzen
00:21:01: über Hellstarface, erstelle eine zeitgesteuerte Umleitung. Hatten wir auch auf der Convention
00:21:06: groß gezeigt. Aber sie hatten halt einfach noch nicht so die Use Cases aus dem Markt. Was hat
00:21:13: sich da getan seit der Convention? Genau, also das ist ja das, was mit Staffis 9 aktuell da
00:21:18: ist. Vielleicht auch da nochmal ein Werbeaufruf, vielleicht die Funktionen sind da. Das ist
00:21:24: jetzt drin, wenn ihr die Haube aufmacht. Funktioniert wirklich richtig gut, ist auch eben datenschutzkonform,
00:21:30: alles machbar. Wir haben eine ganze Reihe Fragen so im Nachgang gekriegt hinsichtlich, wie ist
00:21:34: das rechtlich anzusehen. Ist im Partnerportal inzwischen auch ein ganzer Bereich entstanden,
00:21:40: wo wir dann dem Partner auch nochmal die Informationen dazu geben. Aber wir als Starfaces, wir als
00:21:44: Hersteller ... haben halt keine fertigen Funktionen, ... also die ein Nutzer, ein Kundenunternehmen
00:21:51: ... ... direkt einsetzen kann, sondern ... man muss halt diesen Weg über ein Modul da gehen.
00:21:56: Und ehrlich gesagt ... hatten wir ein bisschen mehr ... Verbreitung erwartet in der Zwischenzeit
00:22:04: dabei. Aber eben aus den gerade genannten Gründen ... ... ist das nachvollziehbar, dass das ein
00:22:09: bisschen sperrig ist. Deshalb werden wir jetzt Im nächsten Schritt, daran gehen, da arbeiten
00:22:14: wir aktuell dran, weitere KI-Funktionen zu integrieren als Service, als Produkt, dass die direkt von
00:22:25: einem Kunden und von einem Nutzer aufgerufen werden kann, ohne irgendwie noch groß konfigurieren
00:22:29: zu müssen. Habt ihr ein Beispiel, also jetzt auf Basis von dem, was in Starface 9 da ist,
00:22:36: wenn jetzt ein Partner sagt, ah, der Funk ist übergesprungen, habt ihr ein Beispiel, wie
00:22:41: ein Partner sowas dann ich sag mal für einen bestimmten Use Case nutzbar macht. Also ich
00:22:48: glaube, ich habe tatsächlich noch keinen gesehen, tatsächlich so gemacht hat, aber das Ein-Use-Case
00:22:52: mit der Staphys 9 schon gut abdeckbar sein müsste, ist bei Arztpraxen der ganze Bereich Rezeptverlängerung.
00:22:59: Also das ist für viele Arztpraxen echt ein Arbeitsaufwand, die Anrufe entgegenzunehmen,
00:23:05: wo man einfach sagt, mein Rezept läuft aus oder der Vorrat ist weg und ich brauche das nochmal.
00:23:10: Das läuft bei den Praxen meistens so, dass dann entweder jemand live den Call entgegennimmt.
00:23:15: Oder es geht auf einen Anrufbeantworter und dann sitzt dann eine entsprechende Assistenz
00:23:19: und versucht aus dem Telefonat heraus zu hören, was das jetzt war. Nachgang jemand live. Und
00:23:24: tippt das letztlich ab. Das ist eigentlich ein Case, der mit StarFace 9 schon gut abdeckbar
00:23:31: wäre. Also Anruf entgegennehmen, von dem KI-Bot letztlich transkribieren lassen und die Transkription
00:23:38: kommt dann per Mail schon raus. In den nächsten Stufen, was wir jetzt eben dran arbeiten, da
00:23:46: kann Jenny gleich noch ein bisschen in Tiefe gehen, sind eigentlich zwei Richtungen, die
00:23:49: wir machen wollen. Diese Transkription, was ich gerade genannt habe, letztlich jedem Anruf
00:23:54: zur Verfügung zu stellen. Also das heißt, dass ich mit bestehenden Anrufen die mitschneiden
00:24:00: kann. Also einen Audiomitschnitt haben wir ja schon immer in der Staff ist drin. Da jetzt
00:24:04: eben kein Audiomitschnitt, sondern transkribiertem Text, dass ich den Protokoll quasi kriege,
00:24:09: dass ich zusammenfassen lassen kann, dass ich verschlagworten lassen kann. und das in die
00:24:14: Desktop Apps reinbringen. Und der zweite Sektor, der ist wirklich losgelöst davon zu betrachten,
00:24:19: sind VoiceBot-Anwendungsfälle, sagen wir mal, also Richtung IVR und IQ. Genau. Wir fangen
00:24:28: jetzt erstmal eben mit der Transkription direkt in den Desktop Apps an, mit Das darf es sehen.
00:24:35: Und daraus ergibt sich die Möglichkeit, die Sachen direkt zusammenzufassen. Das heißt,
00:24:42: wir werden auch keine Live-Anzeige von der Transkription oder der Zusammenfassung machen, sondern einfach
00:24:46: direkt nach dem Gespräch eine Zusammenfassung liefern. die wird durchsuchbar sein. Und automatisierte
00:24:55: Verschlagwortung. Das heißt, du hast zum Beispiel sehr viel über ein Jahrling-Telefon geredet,
00:25:00: dann hast du automatisch das Label Jahrling mit drinstehen. Wonach du später natürlich
00:25:05: auch suchen kannst. Gerade wenn wir an die Liedgenerierung im Vertrieb denken, von wegen
00:25:10: ich hab vor einem Jahr mal mit jemandem gesprochen und weiß nicht mehr wirklich über was, dann
00:25:15: stehen die Schlagworte schon mit drin. Das ist natürlich sehr praktisch. Richtig. Das macht
00:25:20: es halt auch einfach jetzt greifbar. Ja, klar. Für die wirklichen Nutzer. Ich denke, das ist
00:25:24: vielleicht auch das, was ihr eben vorhin auch gesagt habt, dass den Partnern oder den Leuten
00:25:29: draußen noch so bisschen gefehlt hat, den positiven Effekt rauszuziehen, weil gerade KI dann auch
00:25:34: sicherlich in aller Munde war, aber niemand konnte's richtig greifen. Jetzt wird's greifbar.
00:25:39: Das ist echt cool. Das macht's nahbarer. Ich glaub tatsächlich auch, wenn wir über die Verarbeitung
00:25:45: von Anrufen, also Sprachdaten reden, also grad die Nachbereitung, da reden wir natürlich immer
00:25:50: auch über Speech-to-Text. Und ich find, Bereich Transkription ist die KI in letzten Jahren
00:25:57: immer besser geworden, immer zuverlässiger. Was dann natürlich auch die Weiterverarbeitung
00:26:01: für verschiedene Use Cases, also ob es Rezeptverlängerung ist, ob es irgendwie Nachbreitung von Sales
00:26:06: Calls ist, die dann halt eben auch automatisiert werden kann. Das heißt, ich habe dann nicht
00:26:10: mehr ein komplettes Transkript, sondern das ist vielleicht schon in einem gewissen Stil
00:26:14: vorbereitet für mich. Da entstehen dann wirklich, finde ich, handfeste Vorteile, die einfach
00:26:21: ja viel Aufwand ersparen und eben auch echtes Automatisierungspotenzial dann bieten. Das
00:26:27: bringt mich oder er? Ja, das bietet wirklich einen Mehrwert. Wer schreibt denn schon gerne
00:26:32: Meeting-Notizen? Ja, klar. Manche gar nicht, sagt man. Aber, Christoph, das Beispiel, das
00:26:41: du genannt hast, der Rezeptverlängerung, ist ja eigentlich auch ein Grund dafür, warum wir
00:26:46: eben nicht sagen, das und das das kommt von der Stange rein. Weil ein Rezept lasse ich
00:26:52: vor meinem Arzt verlängern. Das ist relativ, sag ich mal, relativ simpler Prozess. Also,
00:26:58: wenn da zum Beispiel ... Transkription sauber funktioniert, dann ist das zuverlässig. Bei
00:27:02: anderen Funktionen, wie zum Beispiel eine Terminvereinbarung oder so, sieht es natürlich schon ganz anders
00:27:09: aus. Einfach, wie du schon eingangs mal erwähnt hast, weiß nicht jeder Arzt auch gleich ist.
00:27:15: Genau. Ja. Also da ist schon eine Linie, die man sehen muss. Um bei diesem Healthcare-Beispiel
00:27:20: nur zu bleiben. Bleiben wir dabei. ich habe das eben so bisschen vorsichtiger erwähnt,
00:27:24: was man mit Staphis 9 schon mit Rezeptverlängerung machen kann. Vorsichtig im dem Sinne, dass
00:27:31: ich momentan nicht beurteilen kann, wie gut diese Texterkennung bei den diversen Rezepten
00:27:35: haben ist. Ja klar. Also da kommen wir schon an so eine Grenze. Ich gehe davon aus, dass
00:27:40: es sehr gut ist. andere Datenquellen. Und das kann durchaus sein, dass für einen Hautarzt,
00:27:48: oder die Hautarztbranche, Fachrichtung, Ein spezielles Training noch mal erforderlich ist
00:27:57: mit den Medikamentennamen, die bei Hautärzten eine Rolle spielen. Das wollte ich auch gerade
00:28:01: sagen. Alleine haben ja auch teilweise Medikamentennamen super kryptische Formulierungen manchmal. Dass
00:28:07: das dann wirklich immer so einsart durchflutscht, dass es dann wirklich jeder versteht, ist sicherlich
00:28:11: noch mal eine andere Herausforderung. Der Vorteil von unserem Prinzip ist, wenn es solche Projekte
00:28:16: gibt, das wären genau das, was die Star-Wiz-Partner dann tun, und uns die Rückmeldung geben, hier,
00:28:21: ist quasi die die Liste der Rezepte, ... der Medikamentennamen, die für die Branche relevant
00:28:28: sind, dann können wir die zentral einpflegen ... ... und dann gilt das für alle Hautärzte.
00:28:31: Das heißt also, es reicht, ... dass ein Partner mal so Projekt anfängt ... ... und davon profitieren
00:28:36: dann alle. Und das andere, wo du wahrscheinlich ... darauf hinauswolltest, ... sind dann so
00:28:41: Geschichten, ... das hört man gerade in der Healthcare-Branche ... immer wieder als den
00:28:45: ... den Use-Case schlechthin, Terminvereinbarung. Also die Idee ist dahinter, ... Ich rufe als
00:28:53: Patient an und will einen Termin machen. Der Bot nimmt das Gespräch entgegen und schlägt
00:28:58: mir dann einen vereinbarten Termin vor. Aber das fängt ja erstens schon damit an, dass dieser
00:29:02: Bot natürlich auf ein Terminvereinbarungssystem zugreifen muss. Das muss da angebunden sein.
00:29:08: Da muss dieser Bot in der Lage sein, den Termin so zu klassifizieren, dass er mit der richtigen
00:29:13: Länge und wenn es eine größere Praxis ist, auch mit der richtigen Kompetenz des Artes kombiniert
00:29:18: wird. Das ist dann kein Standard. sondern das ist individuelles Projektgeschäft. Wir unterstützen
00:29:25: das, mit den Standards dahinter. das wird nicht so sein, dass man einfach out of the box sagen
00:29:30: kann, das ist jetzt der Bot, der mit Kardiologen funktioniert. Das ist ja auch total schwieriges
00:29:36: Thema. So ein Röchelanruf oder so, das muss die KI ja auch erkennen. Ja klar, wenn du irgendwie
00:29:41: merkst, da ist jetzt gerade wirklich ein Notfall oder so, bringt es halt nichts, wenn die KI
00:29:45: 15 mal nachfragt. Ich gehe davon aus, dass ein Kardiolog auch andere Anahmorte hat. Wenn
00:29:54: ich als Mensch da anrufe und der Bot schleckt mir Termin in vier Wochen vor und dann sage
00:29:58: ich, ich habe gerade eine Beklemmung im Brustkorb, dann hätte ich schon gern als Patient, dass
00:30:03: ich dann Menschen durchgestellt bekomme und nicht mit dem Bot darüber diskutieren muss,
00:30:07: wie dringend das jetzt sein könnte. Oder eben wirklich eine Stufe simpler angesetzt, wie
00:30:12: du gesagt hast, nicht jeder Termin bin anspruchsfähig nur eine Viertelstunde, wenn ich irgendwie
00:30:17: eine Kernschwindentomographie habe oder so, dann geht da mehr Zeit drauf. Aber ja, im Prinzip
00:30:22: ist es ja das, was du beschrieben hast, dass da ein bisschen da natürlich ein Kreislauf
00:30:26: entsteht, dem wozu Partner befähigt werden, wo dann auch Rückmeldung kommt. Das ist ja
00:30:32: mit dem gesamten Starface Modulsystem ein bisschen so. Also da merkt man ja auch über die Zeit,
00:30:37: hey, diese Funktionen sind wirklich wichtig, oft nachgefragt, kann man da vielleicht noch
00:30:43: ein weiter, was nativ in Starface einbauen, was das Ganze eben erleichtert. Und genau über
00:30:48: das Gleiche sprechen wir eigentlich auch, wenn es um Integration von KI geht. Ganz genau.
00:30:55: Gut, dann haben wir jetzt über Starface 9 gesprochen, Starface 10 auch schon ein bisschen angerissen.
00:31:01: Können wir noch einen kleinen Ausblick geben tatsächlich auf das kommende Release, speziell
00:31:07: in puncto KI. Also Wo waren vielleicht die Schwierigkeiten bei Starface 9 eben? Jenny, du hast ja auch
00:31:13: schon die Limitierung ein bisschen angesprochen. Und wo platzt vielleicht auch ein gewisser
00:31:18: Knoten dann mit dem nächsten Release? Also, eine Challenge ist bei dem ganzen Bereich Voicebots,
00:31:29: also wenn wir den als Sektor mal nehmen, die Reaktionsgeschwindigkeit. Ja. Also, das ist
00:31:35: tatsächlich nochmal ein Unterschied zu den klassischen Chatbots. Wenn man dran denkt, also wenn man
00:31:40: mit ChatGBT oder ähnlichen Systemen arbeitet, man sieht halt, wenn man seine Antwort eintippt,
00:31:45: wie er quasi zurück tippt. Kann man mal ausprobieren. kann man umstellen, dass die Antwort erst
00:31:53: angezeigt wird, wenn sie komplett generiert ist, fühlt sich komplett komisch an. Weil man
00:32:00: dann sitzt und einfach paar Sekunden lang nichts passiert. Es ist ein Riesenunterschied. Und
00:32:05: das ist dieses sogenannte Streaming. Und im Sprachumfeld ist das ja noch mal viel extremer.
00:32:12: Da wartest du noch schneller an Feedback in irgendeiner Form. Wenn wir jetzt gerade sprechen
00:32:16: mit der Nachricht, dann ist nicht... Du sagst was und dann warten wir jetzt mal acht Sekunden,
00:32:21: bis ich meine Antwort geliefert habe. Spätestens nach drei ist es jetzt unangenehm. Und dann
00:32:25: wird es noch schlimmer. Wir fangen dann nach acht Sekunden an. Du merkst sofort, ich habe
00:32:30: dich total falsch verstanden, musst aber warten, bis mein Monolog fertig ist, um dann sagen
00:32:35: zu können, nein, ich hätte gern was anderes. Also die Reaktionsgeschwindigkeit und die Unterbrechbarkeit.
00:32:41: Das sind so die, die in dem Voice im Dialog umfällt, die ganz knackigen Dinge. Die Hintergrundgeräusche
00:32:49: noch, Genau. Also das war auch so ein Hauptaspekt. Du hast halt deine Sachen eingesprochen und
00:32:58: wenn auch nur das kleinste Hintergrundgeräusch war, wurde das noch als Sprache erkannt. So
00:33:04: kam es erst gar nicht dazu, dass die Antwort generiert wurde. Ah, okay. Weil es das dann
00:33:08: gestört hat. Ja, richtig. Weil dann kein Cutoff war. Teilweise hast dein Handy dann gemutet,
00:33:13: wenn du irgendwie das versucht hast, und dann drei Sekunden musst es gemutet sein, und dann
00:33:17: wurde erkannt, okay, jetzt ist derjenige fertig. Das sind eben die Challenges, die wir jetzt
00:33:23: haben. Das eine ist dieses Streaming, dass wir also mit der Transkribierung schon beginnen,
00:33:28: während der Mensch noch redet, also der Anrufer noch redet, und nicht warten, bis er fertig
00:33:33: ist. Wir glauben erst fertig, dann anfangen zu transkribieren, während du redest, wird
00:33:38: transkribiert. Das ist schon nicht so ganz trivial, weil dann hört man bei mir wahrscheinlich auch
00:33:46: gerade, dann fängt man an zu denken, dann fängt das alles plötzlich wieder anders an. Das muss
00:33:49: ja trotzdem einigermaßen vernünftig zusammengebaut werden, das ist der eine Punkt. Und dass dann
00:33:55: eben die Antwort in sehr kurzer Zeit dann auch wieder zurückkommt, angefangen wird, und zwar
00:34:00: eben umgekehrt genauso gestreamt. Also es wird nicht gewartet, bis der Bot dann die Antwort
00:34:05: komplett generiert hat. Dann wird geantwortet, sondern dass das direkt ist. Das ist so die
00:34:11: eine große Hürde, die wir drin sind, aber jetzt einen guten Weg haben. Und das andere ist,
00:34:18: was Jenny gerade auch angesprochen hat, die unterschiedliche Qualität letztlich von wie
00:34:23: die einzelnen Large-Language-Models auf so Störgeräusche oder Situationen reagieren. Besser bauen wir
00:34:30: das Ganze so, dass wir das als zentralen Service anbieten werden, der unabhängig von den einzelnen
00:34:36: Large-Language Models ist. Das heißt, wir können zentral, je nach Use-Case, je nach Entwicklung
00:34:41: in der Zukunft, unterschiedliche LLMs ansteuern, sodass wir davon ausgehen, dass wir da immer
00:34:49: ganz vorne mit dabei sein werden von der Qualität und der Geschwindigkeit. Dafür nutzen wir so
00:34:54: etwas wie einen Model Broker. Das heißt, die Sprache kommt rein. kommt an den Model Broker
00:35:01: und wird vergeben an das entsprechende Modell, das dahinter hängt. Und so bieten wir auch
00:35:05: eine gewisse Redundanz einfach. Falls mal wirklich ein Modell oder ein Service mit Backend ausfallen
00:35:09: sollte, ... können wir trotzdem noch liefern. Über ein anderes Modell zwar, vielleicht in
00:35:15: etwas verringerter Qualität, ... aber trotzdem wird noch geliefert. Und das ist ja auch wahnsinnig
00:35:20: wichtig. Das wäre tatsächlich noch eine Frage von mir gewesen. Einfach nur ... Produktbezogen,
00:35:25: dass man sich ja auch nicht zukünftig in Entwicklung verschließt, weil man jetzt sagt, okay, wir
00:35:30: nutzen das, wir entwickeln alles darauf hin, dass es mit diesem Modell funktioniert, sondern
00:35:35: das ist ja ein wahnsinnig schnelllebiges Feld, das haben wir in letzten Jahren gemerkt, werden
00:35:38: wir auch zukünftig noch merken. Wie du gerade angesprochen hast, wenn man so diesen Ansatz
00:35:43: verfolgt, bleibt man natürlich für technologischen Fortschritt offen. Das ist ja, wenn wir sagen,
00:35:49: wir wollen eine saubere Basis schaffen, der dann auch eben Module entwickelt werden können.
00:35:54: Das ist ja eigentlich das Wichtigste wirklich. Und da eröffnet uns eben auch die Möglichkeiten,
00:36:02: auch länderspezifisch zu wechseln. Oder von den Anbietern her, wenn man sich anguckt, wir
00:36:08: aktuell scheinen die amerikanischen Anbieter schon nach wie vor bisschen besser zu sein.
00:36:13: Das heißt, wir werden die mit anbinden. Aber wir gucken uns natürlich auch so in Entwicklung
00:36:16: wie Mistral. Frankreich sehr genau an und sobald wir den Eindruck haben, dass das qualitativ
00:36:21: auf dem gleichen Level ist, ich gehe davon aus, dass das relativ bald sein wird, dann bitten
00:36:27: wir natürlich bevorzugt europäische Player dann mit an. Klar. Das denke ich auch was,
00:36:32: was der Markt begrüßt, wenn man sich die aktuellen Entwicklungen anschaut. Schön formuliert.
00:36:38: Ich weiß gar nicht, was du meinst. Gut, dann haben wir den Überblick bekommen zum aktuellen
00:36:48: Stand Starface 9 und einen Ausblick, kleinen, Richtung Herbst dieses Jahres. Solange ist
00:36:53: es gar nicht mehr hin, wenn dann die große 10 auf einmal erscheint. In diesem Sinne vielen
00:37:03: Dank an euch für die Einblicke, sowohl darüber, wie wir Starface bei uns nutzen und uns besser
00:37:11: machen, aber eben auch ... Vielen, vielen Dank! Ja, der Stelle bleibt eigentlich nur noch zu
00:37:19: sagen, danke fürs Zuhören und oder Zuschauen und bis zum nächsten Mal. Tschüss aus Karlsruhe!
00:37:25: Ciao!
Neuer Kommentar