KI meets Telefonie

Shownotes

In dieser Folge dreht sich alles um:

  • die Integration von KI in der STARFACE Software,
  • rechtssichere und datenschutzkonforme KI-Nutzung im Unternehmen,
  • Schulung von Mitarbeitenden für den Einsatz von KI,
  • unsere interne KI-Lösung "STARFACE AI",
  • die Einsatzmöglichkeiten von KI mit der STARFACE Telefonanlage,
  • Herausforderungen und Erfolge bei der Weiterentwicklung von KI-Funktionalitäten

und alles, was es zum Thema KI und STARFACE sonst noch zu sagen gab.

Transkript anzeigen

00:00:00: Im Starface Podcast dreht sich heute alles um künstliche Intelligenz. Zu Gast bei uns sind

00:00:04: Jenny und Christoph aus dem Starface Produktmanagement. Mit den beiden reden wir über den Einsatz von

00:00:09: KI bei Starface und über die Integration von KI in Starface. Wir geben einen Überblick über

00:00:14: die aktuellen Möglichkeiten mit KI und Starface echte Mehrwerte zu schaffen und wir geben bereits

00:00:19: einen kleinen Ausblick auf alles was zukünftig in puncto KI noch kommt.

00:00:27: Jenny, Christoph, vielen Dank, dass ihr da seid. Das ist ja tatsächlich nicht das erste Mal,

00:00:32: dass wir Thema KI hier im Podcast überhaupt anreisen. haben hier und da mal mit einem

00:00:37: anderen Gast schon dahin abgeschweift, ich mal. Interessanterweise bin ich mal zurückgegangen

00:00:42: in die allererste Folge von Comfort Talking, die wir mit Jürgen Siegner aufgenommen haben

00:00:47: aus unserer Geschäftsleitung. Und ich zitiere mal kurz, weil wir damals auch, das war ja

00:00:52: vor fast zweieinhalb Jahren ... Januar. Als der richtige Hype losging um Chet GPT, da haben

00:00:59: wir mit ihm das Thema auch bisschen angerissen. Auch wenn es darum geht, was Unternehmen machen

00:01:04: sollten. Und er meinte dazu, ich empfehle jedem Unternehmen, sich mit dieser Technologie auseinanderzusetzen.

00:01:10: Wir werden uns auch bei Starface darüber Gedanken machen, wo es sinnvolle Einsatzmöglichkeiten

00:01:13: gibt. Und ich denke, das Feld wird riesig sein. Diesen Beispiel ich gerne weiter. Wie riesig

00:01:19: ist das Feld? Wie groß ist es heute, wenn wir über KI bei Starface sprechen? Riesig. Also

00:01:26: die Prognose von Jürgen war absolut richtig an der ganzen Geschichte. ich mein, wenn man

00:01:31: so zurückguckt in den zwei Jahren, ist es ja irre, wie schnell sich da die ganze Welt bewegt.

00:01:37: Und auch, finde ich so persönlich, wie schnell man auch Sachen als selbstverständlich plötzlich

00:01:43: akzeptiert, die vor zwei Jahren noch wow waren. Inzwischen einfach so, ja klar, Text noch

00:01:49: selber schreiben. Wieso? Ein paar Stichworte und das war's. Also das ist ja eine unglaubliche

00:01:54: Geschwindigkeit, auch dass wir so sehen, die Weiterentwicklung in den einzigen Large-Language-Models,

00:01:58: in sowas wie Dairy mit der neuen Variante, die das gebracht haben, ist ja nochmal wieder

00:02:05: ein Riesenschritt. Also das ist unglaubliches Thema, da drin ist. Und wir halten es nach

00:02:09: wie vor für total wichtig, dass sich jedes Unternehmen nicht nur produktseitig damit beschäftigt.

00:02:15: Also das ist ja die Geschichte, dass man einfach wettbewerbsfähig bleiben muss. Da kommen wir

00:02:20: sicherlich später nochmal drauf, was wir da machen. Und die andere Seite ist halt die

00:02:25: internen Abläufe, die internen Vorteile und Produktivitätssprünge, die man einfach machen

00:02:31: kann. Und das sind ja zwei komplett getrennte Sachen. Meine Sicht der Dinge ist eigentlich

00:02:35: so, in Deutschland, in der Industrie, Tendenz wird eher auf der Produktseite erst mal geguckt,

00:02:39: marktseitig kann man es verbessern und weniger, was kann ich intern eigentlich tun, damit meine

00:02:43: Mitarbeiter da auch mit arbeiten können. Also tatsächlich bei uns finde ich auch ganz, ganz

00:02:49: erfrischend, dass das relativ schnell Meiner Meinung nach finde ich auch mitgedacht wurde.

00:02:53: hast gerade angesprochen, dass vieles Gewöhnungssache ist. Der Mensch ist ja ein Gewohnheitszieher

00:02:57: und gewöhnt sich dann auch schnell. Was in meinem täglichen Doing mir total aufgefallen ist,

00:03:02: ist, dass man eigentlich kaum noch, gerade wenn man viel textlich verarbeitet, was schreibt,

00:03:08: dass man kaum noch mit dem weißen Leerenblatt Papier anfängt, sondern man immer sich schon

00:03:12: mal mit KI auf Basis von Ressourcen, die man eben hat. eine Skizze erstellen lassen kann.

00:03:19: Das sind so Dinge, die einem wirklich aufgefallen sind. Die sind einfach weg. Also ich sitze

00:03:23: nicht mehr vor einem leeren Word-Dokument und scribble mir irgendwie eine Struktur für einen

00:03:27: Text hin. Nee, macht keiner Sondern da arbeitet man einfach dann wirklich wie mit so einem

00:03:32: Gegenüber, um sich dann eine Textstruktur zu erstellen. Was sind so Dinge, die euch in eurem

00:03:37: Arbeitsalltag aufgefallen sind, wenn es wirklich auch darum geht, wo man sich dran gewöhnt hat,

00:03:43: damit kreiert zu arbeiten? Naja, also die Texterstellung war auf jeden Fall ganz vorne mit dabei. Und

00:03:49: auch, wenn ich an Miro-Sachen denke, an Flow-Diagramme oder so, die erarbeite ich mit KI. Und übernehmen

00:03:57: sie dann je nachdem in Miro oder eben auch nicht. Und da haben wir ganz viele Sachen, die wir

00:04:03: eigentlich nur noch mit KI als Blaring machen, die dir super viel Zeit ersparen. Also eine

00:04:08: Anekdote bei uns, was mir eigentlich so den Nutzen am plastischsten gebracht hat, war,

00:04:14: Wir machen ja regelmäßig unsere Webinare, die Partner Webinare. Wenn wir ein neues Major

00:04:18: Release haben. Da sind ja in Regel so 500, 600 Teilnehmer dabei, also relativ groß. Wo dann

00:04:24: während des Meetings Fragen gestellt werden können. Wir versuchen natürlich unser Bestes

00:04:28: während des Meetings die Fragen schon so ein bisschen zu beantworten, aber ist einfach bei

00:04:31: der schieren Masse, da kommunert er von Fragen rein kaum möglich. Und wir machen immer schon

00:04:36: anschließend ein FAQ Dokument dann daraus, was wir veröffentlichen. Das war bisher ein riesen

00:04:40: Aufwand. Allein die ganzen Fragen thematisch zu sortieren. Und jetzt beim letzten Mal, ich

00:04:48: glaube, wir waren nach einer Stunde durch. Und zwar nicht nur sauber geklustert auf die 30

00:04:52: relevanten Themen, sondern auch schon beantwortet. Wobei natürlich die Antworten in der ersten

00:04:57: Video von uns waren. Das ist bisschen anders als das, du gerade geschildert hast. Da kommt

00:05:00: natürlich von uns der Input. Wir lassen es dann nochmal sauber glätten, sagen wir mal. gucken

00:05:07: noch einmal zur Kontrolle drüber, das ist immenser Zeitpunkt. Genau, auch bei den Release Notes,

00:05:13: bei Major Release. Das ist super umfangreich, es sind so viele Sachen. Der Input kommt von

00:05:17: uns, du lieferst die Bullet Points und du bekommst einen schönen Text. Ja, ähnlich ist es tatsächlich

00:05:23: auch hier mit der Podcast-Erstellung. Ich gehe nicht hin und tippe jedes Wort Wort für Wort

00:05:30: ab, sondern das Transkript wird erstellt, ist dann eher... eine Frage nochmal von, wie gesagt,

00:05:34: Qualitätsprüfung, auch wenn es darum geht, das Ganze gescheit zusammenzufassen. Dann prüft

00:05:39: man lieber nochmal einzelne Punkte nach, denn die KI ist ja manchmal auch nicht ganz so I,

00:05:44: sondern nur K. Aber ja, ist natürlich, der Zeitaufwand hat sich da einfach drastisch reduziert tatsächlich.

00:05:53: Aber immerhin reden wir noch persönlich miteinander. Das ist schön. das ist schön. Kommt vielleicht

00:05:59: irgendwann auch mal anders. Kann sein. sein. Machen wir mal einen Schritt zurück, wenn wir

00:06:06: darüber sprechen, wie wir das Thema bei uns, für uns intern nutzen und wie wir das Ganze

00:06:11: aufgezogen haben. Christoph, du warst ja auch ein bisschen federführend in dem Projekt.

00:06:16: Wie sind wir da vorgegangen, wenn es darum geht, KI-Beis dafür ist nutzbar zu machen, erstmal

00:06:20: für uns? Ja, hat halt so verschiedene Dimensionen, die man betrachten muss. Das eine ist, wenn

00:06:26: man jetzt mal zurückblickt, wir haben relativ schnell gesagt, okay, wir wollen positiv Beispiele

00:06:31: kreieren im Haus. Und einfach zu zeigen, was so geht. Später kamen auch ein rechtliche Themen

00:06:37: mit dazu, ... da kann ich gleich immer ein bisschen was zu sagen. Aber das war so der erste Schritt

00:06:40: und da haben wir ... damals eben überlegt, ... suchen wir jetzt einzelne Teams raus und sagen,

00:06:45: ... okay, lass uns einmal zusammenarbeiten. Dann haben wir eigentlich gesagt, nee, ...

00:06:49: lass uns das mal ganz frei machen, weil ... keiner kann sagen, was Marketing ... da braucht,

00:06:55: was das Enginieren braucht, ... was das Support braucht, was Produktmanagement. Das ist relativ

00:06:59: schwierig, denke ich, das Zentral. zu erfassen. konnte auch noch niemand so richtig greifen.

00:07:05: Ja, wahrscheinlich auch die Anwendungsszenarien so divers sind, dass man es irgendwie gar nicht

00:07:11: über ein Muster irgendwie drüber legen konnte, schätze ich. Also wenn du eines Tages so

00:07:18: Leuchtungprojekte machst und da kommen wir jetzt eben hin, dann wirst du genau sagen müssen,

00:07:21: ok, Support, und das das. Aber da ging es ja zunächst einfach mal um Kreativität zu kommen

00:07:27: und uns attraktiv zu machen, weil es natürlich Damals insbesondere, aber inzwischen immer

00:07:33: noch den ein oder anderen Mitarbeiter gibt, sagt, naja, Interessiert mich jetzt nicht so

00:07:39: total. Brauche ich auch nicht und hilft mir auch nicht. Die gibt es überall oder ich habe

00:07:43: auch Angst davor, dass mir mein Job nimmt. Und wir haben damals das sogenannte Prompto Pizza

00:07:48: Format etabliert. Da war eben genau diese Idee, die Leuten, die Spaß dran haben, die zusammenzuholen.

00:07:55: Den haben wir in Chachibetit in Zugang damals jeweils von der Firma ausgegeben. Da haben

00:07:59: wir uns so... drei Wochen oder so was, glaube ich, ... war es in der Größenordnung ... ...

00:08:03: einfach zusammengesetzt. Das waren so zehn Leute plus minus. Haben es bewusst abends um 17 Uhr,

00:08:09: ... nachmittags 17 Uhr erst begonnen, weil wir gesagt haben, da möchten wir auch wirklich

00:08:12: nur ... ... sagen, das ist mir auch wert. Ja. Adopters. Und haben dann einfach ... erstmal

00:08:19: einen Austausch gemacht. Wer hat welches neue Tool kennengelernt, ... wenn kann es mal vorstellen.

00:08:25: Waren also von daher so ein bisschen Training. Was waren da für neue Sachen? Da waren spannende

00:08:28: Sachen. Wenn man an die Musikstücke von Starfish und von letzten Conventionen denkt, das ist

00:08:33: ja letztlich auch aus einer dieser Prompto Pizza Events entstanden. Haben das gemacht, haben

00:08:39: dann in der Regel eine Aufgabe gestellt, wo dann die Teams nochmal zusammengearbeitet haben,

00:08:43: um mit der KI diese Aufgabe zu lösen. In der Zwischenzeit haben wir dann Pizza besorgt und

00:08:48: dann war während der Ergebnispräsentation noch Pizzaessen zusammen und das war einfach so

00:08:52: richtig Starfish Spirit. Ja, das stimmt. Gerade in der Anfangszeit war es ja auch wirklich

00:08:58: so, sind Tools aus dem Boden geschossen, ich mal. Manches war dann vielleicht auch eher

00:09:03: irgendwie nur software-seitig ein anderer Rapper, sag ich mal, für das Gleiche. ja, dann kamen

00:09:09: auch wirklich viele verschiedene Tools. Mittlerweile hat man das Gefühl, es hat sich ein bisschen

00:09:13: konsolidiert. Wenn es so wirklich darum geht, naja, das ist Einsatzzweck dafür, das ist Einsatzzweck

00:09:19: dafür. Klar, gibt immer noch Lösungen, die versuchen, viel abzudecken. Gerade natürlich von den Großplayern,

00:09:24: OpenAI und Co. Wie sind wir dann vorgegangen oder wie seid ihr vorgegangen, wenn es darum

00:09:30: geht, wie machen wir das Ganze zugänglich für die breite Masse bei uns? Genau. Also nachdem

00:09:38: wir eben diese Key Group da etabliert hatten, haben wir dann gesagt, okay, jetzt haben wir

00:09:43: genug Erfahrung gesammelt, um mal zu gucken, was wir tatsächlich brauchen. Letztlich haben

00:09:47: wir gesagt, okay, im ersten Schritt was Chatchabit ähnliches. Da kamen wir eben dann zu der rechtlichen

00:09:52: Thematik, amerikanische Company. rechtlich gesehen einige Aspekte. Das eine ist Datenschutz.

00:10:02: Okay, das fällt gerade in Deutschland sowieso jedem als erstes ein. Persönlich bezogene Daten

00:10:07: da reinzubringen. halt problematisch. Also wenn ein Support-Mitarbeiter einen Lockfile da reinbringt,

00:10:13: da sind personenbezogene Daten drin. Das können wir halt einfach nicht so machen. Das heißt,

00:10:19: das muss irgendwie bisschen reguliert werden. Aus unternehmerischer Sicht kommt noch ein

00:10:24: zweiter Aspekt mit dazu, nämlich Geschäftsgeheimnisse. ist gar nicht das Thema Datenschutz, ... einfach

00:10:29: Dinge, ... Protokolle, Gesprächsprotokolle, ... Meetingprotokolle, ... Quellcode, ... ...

00:10:35: all solche Sachen, ... sollte man auch nicht einfach ... ChatGBT zur Verfügung stellen.

00:10:40: Deswegen haben wir gesagt, ... wir brauchen da eine Lösung, ... die das sicherstellt ...

00:10:44: ... und gleichzeitig ... attraktiv genug ist, dass die Leute eben auch freiwillig sagen,

00:10:48: ... okay, da nutzen wir nicht ChatGBT, sondern unser eigenes ... und da haben wir dann ...

00:10:54: auf Basis von Azure, Microsoft Azure, weil das da eben richtig so geregelt ist, ... eine eigenes

00:10:58: Frontend gebaut ... ... und dann war Jenny dann auch maßgeblich mit beteiligt. Ja, richtig.

00:11:05: Wir haben in der Azure-Umgebung ... ... TGPT angebunden und andere Modelle, ... ... auch

00:11:12: Lama zum Beispiel ... oder eben Dali und Bilder zu erstellen ... ... und so ist es halt einfach

00:11:17: in einer sicheren Umgebung. Mittlerweile haben wir auch schon ... Vor-O und Vor-O Mini mit

00:11:21: drin. so ... Wir bewegen uns da immer weiter und versuchen auch immer neuere Modelle anzubinden,

00:11:28: einfach, dass wir da aktuell bleiben und haben das Ganze eben in einer sicheren Umgebung für

00:11:32: uns liegen, sodass die Star-Fest-Daten nicht nach außen gehen. Was halt einfach das Wichtige

00:11:37: daran ist, ne? So bleiben die Geschäftsgeheimnisse intern. Ja. Wie seid ihr da vorgegangen,

00:11:45: wenn es darum geht, jetzt in diesen, also anfangs war es ja ein Prototyp, sage ich mal, was der

00:11:50: Umfang von dem Prototyp sein soll. Wenn es darum geht, okay, wir schaffen jetzt eine Umgebung

00:11:56: für alle internen Mitarbeiter. Was soll da rein? Es war erstmal ein bisschen kritisch. Also

00:12:01: erstmal haben wir uns auf ein öffentliches GitLab-Projekt geeinigt gehabt, was wir in unser Git umziehen

00:12:06: wollten. Das hat nicht ganz so gut funktioniert und dann kamen wir eben auf die Azure-Lösung.

00:12:11: Und jetzt ist es auch so, dass wir es stetig noch weiterentwickeln müssen. Es sind noch

00:12:16: nicht alle Funktionen drin, die im öffentlichen JGBT drin sind. Vorhin habe ich gerade von

00:12:22: Text into Flow geredet. Das funktioniert noch nicht ganz so gut. Aber daran arbeiten wir,

00:12:29: sodass wir im Endeffekt alle Funktionen, die JGBT hat, mal abdecken können. Genau. Jetzt

00:12:34: ist es ja mittlerweile auch gar nicht mehr nur irgendwie ein Zugang zu Standard-JPT4O, sondern

00:12:41: es ist ja noch ein Es ja noch ein bisschen mehr, es ist ja ein bisschen Customizing passiert.

00:12:45: Es ist ja die Starface AI geworden. Wo ist da das Customizing passiert? Was kann die Starface

00:12:53: AI, was ein normaler Chat-GBT-Zugang nicht kann? Wir haben viele Starface-Daten drin. Also da

00:12:58: fangen wir bei unserem Wiki an als Datenbasis. Confluence kommt als nächstes mit rein, unser

00:13:04: internes Wiki. Und so wird es immer mehr zu der Starface AI. Ich glaube, das ist ja auch

00:13:10: ein guter Ansatz für Unternehmen, die sagen, Wir möchten das sicher unter unserer Kontrolle

00:13:15: zugänglich machen und dann natürlich aber auch anreichend mit allem, was wir eh schon haben.

00:13:19: Dass man nicht jedes Mal, weil wenn ich auf chatgbt.com gehe, fange ich bei Null an, müsste

00:13:25: ich erstmal alles, was ich an Wissen voraussetzen kann bei der Staffel, ja jetzt müsste ich erstmal

00:13:30: alles mit reinfüttern. Ja, wenn wir Richtung die Zukunft denken, dann wäre so eine Mobile

00:13:37: App natürlich auch was Schönes. Also konkretes Beispiel in dem Produktmanagement haben wir

00:13:43: zum Beispiel für die Erstellung der User Stories, speziellen Custom GBT, dann auf Basis von unserer

00:13:48: Lösung gebaut, was auch unglaubliche Produktivitätsvorteile bringt. Also wir sind einfach schneller und

00:13:54: sie sind ähnlicher. Und da kann man im Dialog einfach so ein Use Case mal erarbeiten. Das

00:14:01: bringt einfach total viel. KE als Bearing. Genau. Umgekehrt muss man vielleicht auch sagen, wir

00:14:06: sind auch an Grenzen gestoßen. Nehmen wir das mal mit, wer im Supportforum unterwegs ist,

00:14:10: vom Staffessupportforum. Erinnert sich vielleicht noch dran, letztes Jahr haben wir da ein AI-Bot,

00:14:14: also dem als solches auch gekennzeichnet haben, mal mitdiskutieren lassen unter kontrollierten

00:14:19: Bedingungen. wir haben die Diskussion gefüttert, haben Antwort generieren lassen, haben die

00:14:24: nochmal drüber geguckt und haben die mal reingegeben, um zu gucken, wie es ist. Und da haben wir

00:14:29: einfach gemerkt, okay, da ist so viel Expertise in den Diskussionen dann drin. Das kriegen

00:14:35: wir nicht so über einen Bot hin. Das ist viel zu tiefgehendes Wissen. Ohne wahnsinnigen Aufwand,

00:14:44: ich mal. Theoretisch müsste man den mit, ja, weiß nicht, wie lange das Forum schon besteht,

00:14:49: aber der müsste eigentlich das ganze Wissen schon haben, was da jemals diskutiert wurde.

00:14:54: Haben wir tatsächlich reingepackt. Ist das so? Und es hat trotzdem nicht gereicht. Und ein

00:15:00: bisschen so Geschichten, dann haben wir natürlich nachgeprompt und so weiter. Und irgendwann

00:15:03: haben wir mal über kurze Zeit, ist völlig abgedreht und hat für jede Lösung Microsoft Teams angeboten.

00:15:09: Wollten wir natürlich dann nicht unbedingt haben. Keine Ahnung, wie er da drauf gekommen ist.

00:15:14: Und dann ist es ja auch keine Erleichterung, wenn man dann noch 15 Mal drüber gucken muss

00:15:18: und dann noch mal alles irgendwie korrigieren muss, dann kann man es auch irgendwie direkt

00:15:21: wieder abschaffen, zeige ich jetzt mal. okay. Dann kann man es auch selbst machen. Ja, eben.

00:15:26: Dann ist es wie gesagt keine Effizienz-Stärkerung. Ja. Ja, okay. Genau. Aber diesen Feintuning-Aufwand

00:15:31: muss man wirklich sagen. Ich habe ja auch die Starface AI so bisschen von Kinderschuhen an

00:15:37: zumindest als Test-User angewendet und das Feintuning, was da noch nötig ist, hat wirklich stark abgenommen.

00:15:44: Klar, mit allem, was an Starface Hintergrundwissen eh schon reingefüttert ist, mit den Custom-GPTs,

00:15:49: die man sich erstellen kann, hat man da schon wirklich eine sehr, gute Basis. Und dann,

00:15:55: Jenny, muss man ja auch sagen, kann man natürlich so ein AI-Tool nicht einfach auf alle loslassen.

00:16:00: Absolut Es muss ja auch bisschen ja, nicht nur Wissen vermittelt werden, sondern auch

00:16:05: ein Rahmen geschaffen werden. Ja, vielleicht können wir das auch am Exemplar-Starface einmal

00:16:11: darstellen, wie sowas aussehen kann. Ja, wir haben angefangen, uns Gedanken zu machen, wie

00:16:16: wir das Wissen an die Leute bringen, haben eine Schulung vorbereitet und gerade auch in Hinsicht

00:16:23: auf den EU-AI-Act. dass, wenn KI-Nutzung in Unternehmen stattfinden soll, dass die Mitarbeiter

00:16:29: hinsichtlich geschult werden müssen. Wir haben uns Gedanken gemacht, mit dem Datenschutzbeauftragten

00:16:35: abgestimmt, mehrfache Runden gedreht. Keine Forderungen, Endeffekt dann eine Schulung und

00:16:41: Webinare für alle Mitarbeiter angeboten in der Staffis-Gruppe. Das ist sehr gut gelaufen,

00:16:47: das haben alle teilgenommen. Das Webinar steht auch im Nachgang immer zur Verfügung für neue

00:16:51: Mitarbeiter. Und hier gehen wir jetzt auch dann erstmal weiter. Wir gehen Richtung praxisbezogene

00:16:57: Schulungen, die sich dann eben auch auf Abteilungen beziehen sollen, wo wir dann einfach in die

00:17:03: verschiedenen Bereiche ein bisschen tiefer einsteigen. Die erste Schulung war jetzt mehr Basiswissen.

00:17:09: Wie benutze ich das Tool überhaupt? Was sind denn Plug-ins? Was machen die verschiedenen

00:17:13: Modelle? Und dann geht es eher jetzt Richtung Prompting und tieferes Wissen. Das ist Fine-Tuning.

00:17:20: Das ist ein interessanter Punkt. glaube, wird es auch zukünftig da hingehen in Unternehmen,

00:17:27: es sowieso wie ein generelles Datenschutz-Webinar oder eine Einführung, Teil des Onboarding ist,

00:17:33: wird sicherlich in vielen Unternehmen zukünftig auch einfach einen Onboarding-Part geben, der

00:17:39: nicht um die Anwendung von künstlicher Intelligenz dreht. Ist es bei uns ja jetzt schon. Also

00:17:42: das Webinar ist muss für jeden Mitarbeiter. Ansonsten dafür ist es auch nicht nutzen. Und

00:17:48: auch die Nutzungsvereinbarungen können nur nach der Teilnahme an der Schulung bestätigt werden.

00:17:55: Die rechtlich notwendig sind. Ja. Krass. Also nicht krass im negativen Sinne, einfach gut.

00:18:01: Dass da der Deckel irgendwie drauf ist. Wir sind doch wirklich schon relativ weit. Es war

00:18:06: auch die Rückmeldung von unserem Datenschutz beauftragt, dass viele Unternehmen da einfach

00:18:10: noch nicht ganz so weit sind. Ja, cool. Genau. Produktseitig hatten wir in der Vergangenheit

00:18:17: ... Das eine oder andere, wo man sagen kann, ist KI. Stichwort Noise Filtering zum Beispiel.

00:18:22: Aber mit unserem letzten großen Major Release, Starface 9, kam dann wirklich das Schlagwort

00:18:28: KI mit in die Software. Fangen wir vielleicht einmal kurz damit an. Wir haben ja das Release

00:18:34: auf der Convention vorgestellt. Jenny, hast es unter anderem auch im Detail nochmal im

00:18:40: Workshop erläutert. Wie war da die erste Resonanz der Partner zu allem, was ... künstlichen

00:18:48: Intelligenz, Integration in der Software da ist. Also was das Noise Filtering angeht, gerade

00:18:56: in den Apps, das kommt super gut an. hatten wir auch so, das hatten wir relativ schön vermarktet.

00:19:02: Da saß eine Kollegin auf einer Baustelle und sie konnte trotzdem telefonieren. War ein ganz

00:19:06: guter Hintergrund. auf einmal am anderen Ende. Richtig. Das Video gibt es auch auf YouTube.

00:19:10: Also, es interessiert ist, dort zu finden. Ja, das war echt ganz cool. Dem, was wir mit

00:19:16: Starface 9 geliefert haben, das waren dann quasi eine Chat-GBT bzw. OpenAI-Anbindung über unsere

00:19:23: Modulfunktionen. Das heißt, erstmal großartig zugänglich für die Leute, die wirklich Module

00:19:29: bauen und dadurch KI für den Anrufer nutzbar machen können. Die Resonanz war geht so einfach,

00:19:40: weil es nicht für jeden zugänglich war. Wir haben die Modulfunktionen geliefert. Das heißt,

00:19:46: man muss sich wirklich ein Modul bauen. Man muss das Wissen dazu haben. Dazu haben wir

00:19:52: übrigens auch eine Schulung, die Modul Creator, falls sich dafür jemand interessiert. Genau,

00:19:58: steht den nächsten Monat wieder an. da wisst ihr mehr als ich. Und dann war es halt einfach

00:20:05: so, dass es nicht ganz so greifbar war. Wir haben Chat, Text to Speech und Speech to Text

00:20:11: angeboten. mit den Daten in die USA, also direkt mit einer Schnittschelle zu OpenAI über einen

00:20:16: eigenen APK und eben auch über lokal, also in einem Staffel Rechenzentrum gehostet über Whisper,

00:20:25: was grundsätzlich eine gute Idee war, so als ersten Step, aber hier wollen wir jetzt natürlich

00:20:29: weitergehen und nativ mehr liefern, sodass es wirklich für jeden zugänglich und greifbar

00:20:35: gemacht wird. Genau, das heißt bei den Partnern war es ein bisschen wie es bei uns am Anfang

00:20:39: auch war, die die wirklich eh schon drin waren. Das sind ja auch die Partner, die eh schon

00:20:45: Module entwickeln, die wirklich technisch tief drin sind. Die konnten damit dann auch gleich

00:20:50: von Anfang an mehr anfangen. Richtig. Die haben auch schon Module gebaut. Und zum Beispiel

00:20:56: gab es so was wie eine Sprachsteuerung. Man konnte eine zeitgesteuerte Umleitung setzen

00:21:01: über Hellstarface, erstelle eine zeitgesteuerte Umleitung. Hatten wir auch auf der Convention

00:21:06: groß gezeigt. Aber sie hatten halt einfach noch nicht so die Use Cases aus dem Markt. Was hat

00:21:13: sich da getan seit der Convention? Genau, also das ist ja das, was mit Staffis 9 aktuell da

00:21:18: ist. Vielleicht auch da nochmal ein Werbeaufruf, vielleicht die Funktionen sind da. Das ist

00:21:24: jetzt drin, wenn ihr die Haube aufmacht. Funktioniert wirklich richtig gut, ist auch eben datenschutzkonform,

00:21:30: alles machbar. Wir haben eine ganze Reihe Fragen so im Nachgang gekriegt hinsichtlich, wie ist

00:21:34: das rechtlich anzusehen. Ist im Partnerportal inzwischen auch ein ganzer Bereich entstanden,

00:21:40: wo wir dann dem Partner auch nochmal die Informationen dazu geben. Aber wir als Starfaces, wir als

00:21:44: Hersteller ... haben halt keine fertigen Funktionen, ... also die ein Nutzer, ein Kundenunternehmen

00:21:51: ... ... direkt einsetzen kann, sondern ... man muss halt diesen Weg über ein Modul da gehen.

00:21:56: Und ehrlich gesagt ... hatten wir ein bisschen mehr ... Verbreitung erwartet in der Zwischenzeit

00:22:04: dabei. Aber eben aus den gerade genannten Gründen ... ... ist das nachvollziehbar, dass das ein

00:22:09: bisschen sperrig ist. Deshalb werden wir jetzt Im nächsten Schritt, daran gehen, da arbeiten

00:22:14: wir aktuell dran, weitere KI-Funktionen zu integrieren als Service, als Produkt, dass die direkt von

00:22:25: einem Kunden und von einem Nutzer aufgerufen werden kann, ohne irgendwie noch groß konfigurieren

00:22:29: zu müssen. Habt ihr ein Beispiel, also jetzt auf Basis von dem, was in Starface 9 da ist,

00:22:36: wenn jetzt ein Partner sagt, ah, der Funk ist übergesprungen, habt ihr ein Beispiel, wie

00:22:41: ein Partner sowas dann ich sag mal für einen bestimmten Use Case nutzbar macht. Also ich

00:22:48: glaube, ich habe tatsächlich noch keinen gesehen, tatsächlich so gemacht hat, aber das Ein-Use-Case

00:22:52: mit der Staphys 9 schon gut abdeckbar sein müsste, ist bei Arztpraxen der ganze Bereich Rezeptverlängerung.

00:22:59: Also das ist für viele Arztpraxen echt ein Arbeitsaufwand, die Anrufe entgegenzunehmen,

00:23:05: wo man einfach sagt, mein Rezept läuft aus oder der Vorrat ist weg und ich brauche das nochmal.

00:23:10: Das läuft bei den Praxen meistens so, dass dann entweder jemand live den Call entgegennimmt.

00:23:15: Oder es geht auf einen Anrufbeantworter und dann sitzt dann eine entsprechende Assistenz

00:23:19: und versucht aus dem Telefonat heraus zu hören, was das jetzt war. Nachgang jemand live. Und

00:23:24: tippt das letztlich ab. Das ist eigentlich ein Case, der mit StarFace 9 schon gut abdeckbar

00:23:31: wäre. Also Anruf entgegennehmen, von dem KI-Bot letztlich transkribieren lassen und die Transkription

00:23:38: kommt dann per Mail schon raus. In den nächsten Stufen, was wir jetzt eben dran arbeiten, da

00:23:46: kann Jenny gleich noch ein bisschen in Tiefe gehen, sind eigentlich zwei Richtungen, die

00:23:49: wir machen wollen. Diese Transkription, was ich gerade genannt habe, letztlich jedem Anruf

00:23:54: zur Verfügung zu stellen. Also das heißt, dass ich mit bestehenden Anrufen die mitschneiden

00:24:00: kann. Also einen Audiomitschnitt haben wir ja schon immer in der Staff ist drin. Da jetzt

00:24:04: eben kein Audiomitschnitt, sondern transkribiertem Text, dass ich den Protokoll quasi kriege,

00:24:09: dass ich zusammenfassen lassen kann, dass ich verschlagworten lassen kann. und das in die

00:24:14: Desktop Apps reinbringen. Und der zweite Sektor, der ist wirklich losgelöst davon zu betrachten,

00:24:19: sind VoiceBot-Anwendungsfälle, sagen wir mal, also Richtung IVR und IQ. Genau. Wir fangen

00:24:28: jetzt erstmal eben mit der Transkription direkt in den Desktop Apps an, mit Das darf es sehen.

00:24:35: Und daraus ergibt sich die Möglichkeit, die Sachen direkt zusammenzufassen. Das heißt,

00:24:42: wir werden auch keine Live-Anzeige von der Transkription oder der Zusammenfassung machen, sondern einfach

00:24:46: direkt nach dem Gespräch eine Zusammenfassung liefern. die wird durchsuchbar sein. Und automatisierte

00:24:55: Verschlagwortung. Das heißt, du hast zum Beispiel sehr viel über ein Jahrling-Telefon geredet,

00:25:00: dann hast du automatisch das Label Jahrling mit drinstehen. Wonach du später natürlich

00:25:05: auch suchen kannst. Gerade wenn wir an die Liedgenerierung im Vertrieb denken, von wegen

00:25:10: ich hab vor einem Jahr mal mit jemandem gesprochen und weiß nicht mehr wirklich über was, dann

00:25:15: stehen die Schlagworte schon mit drin. Das ist natürlich sehr praktisch. Richtig. Das macht

00:25:20: es halt auch einfach jetzt greifbar. Ja, klar. Für die wirklichen Nutzer. Ich denke, das ist

00:25:24: vielleicht auch das, was ihr eben vorhin auch gesagt habt, dass den Partnern oder den Leuten

00:25:29: draußen noch so bisschen gefehlt hat, den positiven Effekt rauszuziehen, weil gerade KI dann auch

00:25:34: sicherlich in aller Munde war, aber niemand konnte's richtig greifen. Jetzt wird's greifbar.

00:25:39: Das ist echt cool. Das macht's nahbarer. Ich glaub tatsächlich auch, wenn wir über die Verarbeitung

00:25:45: von Anrufen, also Sprachdaten reden, also grad die Nachbereitung, da reden wir natürlich immer

00:25:50: auch über Speech-to-Text. Und ich find, Bereich Transkription ist die KI in letzten Jahren

00:25:57: immer besser geworden, immer zuverlässiger. Was dann natürlich auch die Weiterverarbeitung

00:26:01: für verschiedene Use Cases, also ob es Rezeptverlängerung ist, ob es irgendwie Nachbreitung von Sales

00:26:06: Calls ist, die dann halt eben auch automatisiert werden kann. Das heißt, ich habe dann nicht

00:26:10: mehr ein komplettes Transkript, sondern das ist vielleicht schon in einem gewissen Stil

00:26:14: vorbereitet für mich. Da entstehen dann wirklich, finde ich, handfeste Vorteile, die einfach

00:26:21: ja viel Aufwand ersparen und eben auch echtes Automatisierungspotenzial dann bieten. Das

00:26:27: bringt mich oder er? Ja, das bietet wirklich einen Mehrwert. Wer schreibt denn schon gerne

00:26:32: Meeting-Notizen? Ja, klar. Manche gar nicht, sagt man. Aber, Christoph, das Beispiel, das

00:26:41: du genannt hast, der Rezeptverlängerung, ist ja eigentlich auch ein Grund dafür, warum wir

00:26:46: eben nicht sagen, das und das das kommt von der Stange rein. Weil ein Rezept lasse ich

00:26:52: vor meinem Arzt verlängern. Das ist relativ, sag ich mal, relativ simpler Prozess. Also,

00:26:58: wenn da zum Beispiel ... Transkription sauber funktioniert, dann ist das zuverlässig. Bei

00:27:02: anderen Funktionen, wie zum Beispiel eine Terminvereinbarung oder so, sieht es natürlich schon ganz anders

00:27:09: aus. Einfach, wie du schon eingangs mal erwähnt hast, weiß nicht jeder Arzt auch gleich ist.

00:27:15: Genau. Ja. Also da ist schon eine Linie, die man sehen muss. Um bei diesem Healthcare-Beispiel

00:27:20: nur zu bleiben. Bleiben wir dabei. ich habe das eben so bisschen vorsichtiger erwähnt,

00:27:24: was man mit Staphis 9 schon mit Rezeptverlängerung machen kann. Vorsichtig im dem Sinne, dass

00:27:31: ich momentan nicht beurteilen kann, wie gut diese Texterkennung bei den diversen Rezepten

00:27:35: haben ist. Ja klar. Also da kommen wir schon an so eine Grenze. Ich gehe davon aus, dass

00:27:40: es sehr gut ist. andere Datenquellen. Und das kann durchaus sein, dass für einen Hautarzt,

00:27:48: oder die Hautarztbranche, Fachrichtung, Ein spezielles Training noch mal erforderlich ist

00:27:57: mit den Medikamentennamen, die bei Hautärzten eine Rolle spielen. Das wollte ich auch gerade

00:28:01: sagen. Alleine haben ja auch teilweise Medikamentennamen super kryptische Formulierungen manchmal. Dass

00:28:07: das dann wirklich immer so einsart durchflutscht, dass es dann wirklich jeder versteht, ist sicherlich

00:28:11: noch mal eine andere Herausforderung. Der Vorteil von unserem Prinzip ist, wenn es solche Projekte

00:28:16: gibt, das wären genau das, was die Star-Wiz-Partner dann tun, und uns die Rückmeldung geben, hier,

00:28:21: ist quasi die die Liste der Rezepte, ... der Medikamentennamen, die für die Branche relevant

00:28:28: sind, dann können wir die zentral einpflegen ... ... und dann gilt das für alle Hautärzte.

00:28:31: Das heißt also, es reicht, ... dass ein Partner mal so Projekt anfängt ... ... und davon profitieren

00:28:36: dann alle. Und das andere, wo du wahrscheinlich ... darauf hinauswolltest, ... sind dann so

00:28:41: Geschichten, ... das hört man gerade in der Healthcare-Branche ... immer wieder als den

00:28:45: ... den Use-Case schlechthin, Terminvereinbarung. Also die Idee ist dahinter, ... Ich rufe als

00:28:53: Patient an und will einen Termin machen. Der Bot nimmt das Gespräch entgegen und schlägt

00:28:58: mir dann einen vereinbarten Termin vor. Aber das fängt ja erstens schon damit an, dass dieser

00:29:02: Bot natürlich auf ein Terminvereinbarungssystem zugreifen muss. Das muss da angebunden sein.

00:29:08: Da muss dieser Bot in der Lage sein, den Termin so zu klassifizieren, dass er mit der richtigen

00:29:13: Länge und wenn es eine größere Praxis ist, auch mit der richtigen Kompetenz des Artes kombiniert

00:29:18: wird. Das ist dann kein Standard. sondern das ist individuelles Projektgeschäft. Wir unterstützen

00:29:25: das, mit den Standards dahinter. das wird nicht so sein, dass man einfach out of the box sagen

00:29:30: kann, das ist jetzt der Bot, der mit Kardiologen funktioniert. Das ist ja auch total schwieriges

00:29:36: Thema. So ein Röchelanruf oder so, das muss die KI ja auch erkennen. Ja klar, wenn du irgendwie

00:29:41: merkst, da ist jetzt gerade wirklich ein Notfall oder so, bringt es halt nichts, wenn die KI

00:29:45: 15 mal nachfragt. Ich gehe davon aus, dass ein Kardiolog auch andere Anahmorte hat. Wenn

00:29:54: ich als Mensch da anrufe und der Bot schleckt mir Termin in vier Wochen vor und dann sage

00:29:58: ich, ich habe gerade eine Beklemmung im Brustkorb, dann hätte ich schon gern als Patient, dass

00:30:03: ich dann Menschen durchgestellt bekomme und nicht mit dem Bot darüber diskutieren muss,

00:30:07: wie dringend das jetzt sein könnte. Oder eben wirklich eine Stufe simpler angesetzt, wie

00:30:12: du gesagt hast, nicht jeder Termin bin anspruchsfähig nur eine Viertelstunde, wenn ich irgendwie

00:30:17: eine Kernschwindentomographie habe oder so, dann geht da mehr Zeit drauf. Aber ja, im Prinzip

00:30:22: ist es ja das, was du beschrieben hast, dass da ein bisschen da natürlich ein Kreislauf

00:30:26: entsteht, dem wozu Partner befähigt werden, wo dann auch Rückmeldung kommt. Das ist ja

00:30:32: mit dem gesamten Starface Modulsystem ein bisschen so. Also da merkt man ja auch über die Zeit,

00:30:37: hey, diese Funktionen sind wirklich wichtig, oft nachgefragt, kann man da vielleicht noch

00:30:43: ein weiter, was nativ in Starface einbauen, was das Ganze eben erleichtert. Und genau über

00:30:48: das Gleiche sprechen wir eigentlich auch, wenn es um Integration von KI geht. Ganz genau.

00:30:55: Gut, dann haben wir jetzt über Starface 9 gesprochen, Starface 10 auch schon ein bisschen angerissen.

00:31:01: Können wir noch einen kleinen Ausblick geben tatsächlich auf das kommende Release, speziell

00:31:07: in puncto KI. Also Wo waren vielleicht die Schwierigkeiten bei Starface 9 eben? Jenny, du hast ja auch

00:31:13: schon die Limitierung ein bisschen angesprochen. Und wo platzt vielleicht auch ein gewisser

00:31:18: Knoten dann mit dem nächsten Release? Also, eine Challenge ist bei dem ganzen Bereich Voicebots,

00:31:29: also wenn wir den als Sektor mal nehmen, die Reaktionsgeschwindigkeit. Ja. Also, das ist

00:31:35: tatsächlich nochmal ein Unterschied zu den klassischen Chatbots. Wenn man dran denkt, also wenn man

00:31:40: mit ChatGBT oder ähnlichen Systemen arbeitet, man sieht halt, wenn man seine Antwort eintippt,

00:31:45: wie er quasi zurück tippt. Kann man mal ausprobieren. kann man umstellen, dass die Antwort erst

00:31:53: angezeigt wird, wenn sie komplett generiert ist, fühlt sich komplett komisch an. Weil man

00:32:00: dann sitzt und einfach paar Sekunden lang nichts passiert. Es ist ein Riesenunterschied. Und

00:32:05: das ist dieses sogenannte Streaming. Und im Sprachumfeld ist das ja noch mal viel extremer.

00:32:12: Da wartest du noch schneller an Feedback in irgendeiner Form. Wenn wir jetzt gerade sprechen

00:32:16: mit der Nachricht, dann ist nicht... Du sagst was und dann warten wir jetzt mal acht Sekunden,

00:32:21: bis ich meine Antwort geliefert habe. Spätestens nach drei ist es jetzt unangenehm. Und dann

00:32:25: wird es noch schlimmer. Wir fangen dann nach acht Sekunden an. Du merkst sofort, ich habe

00:32:30: dich total falsch verstanden, musst aber warten, bis mein Monolog fertig ist, um dann sagen

00:32:35: zu können, nein, ich hätte gern was anderes. Also die Reaktionsgeschwindigkeit und die Unterbrechbarkeit.

00:32:41: Das sind so die, die in dem Voice im Dialog umfällt, die ganz knackigen Dinge. Die Hintergrundgeräusche

00:32:49: noch, Genau. Also das war auch so ein Hauptaspekt. Du hast halt deine Sachen eingesprochen und

00:32:58: wenn auch nur das kleinste Hintergrundgeräusch war, wurde das noch als Sprache erkannt. So

00:33:04: kam es erst gar nicht dazu, dass die Antwort generiert wurde. Ah, okay. Weil es das dann

00:33:08: gestört hat. Ja, richtig. Weil dann kein Cutoff war. Teilweise hast dein Handy dann gemutet,

00:33:13: wenn du irgendwie das versucht hast, und dann drei Sekunden musst es gemutet sein, und dann

00:33:17: wurde erkannt, okay, jetzt ist derjenige fertig. Das sind eben die Challenges, die wir jetzt

00:33:23: haben. Das eine ist dieses Streaming, dass wir also mit der Transkribierung schon beginnen,

00:33:28: während der Mensch noch redet, also der Anrufer noch redet, und nicht warten, bis er fertig

00:33:33: ist. Wir glauben erst fertig, dann anfangen zu transkribieren, während du redest, wird

00:33:38: transkribiert. Das ist schon nicht so ganz trivial, weil dann hört man bei mir wahrscheinlich auch

00:33:46: gerade, dann fängt man an zu denken, dann fängt das alles plötzlich wieder anders an. Das muss

00:33:49: ja trotzdem einigermaßen vernünftig zusammengebaut werden, das ist der eine Punkt. Und dass dann

00:33:55: eben die Antwort in sehr kurzer Zeit dann auch wieder zurückkommt, angefangen wird, und zwar

00:34:00: eben umgekehrt genauso gestreamt. Also es wird nicht gewartet, bis der Bot dann die Antwort

00:34:05: komplett generiert hat. Dann wird geantwortet, sondern dass das direkt ist. Das ist so die

00:34:11: eine große Hürde, die wir drin sind, aber jetzt einen guten Weg haben. Und das andere ist,

00:34:18: was Jenny gerade auch angesprochen hat, die unterschiedliche Qualität letztlich von wie

00:34:23: die einzelnen Large-Language-Models auf so Störgeräusche oder Situationen reagieren. Besser bauen wir

00:34:30: das Ganze so, dass wir das als zentralen Service anbieten werden, der unabhängig von den einzelnen

00:34:36: Large-Language Models ist. Das heißt, wir können zentral, je nach Use-Case, je nach Entwicklung

00:34:41: in der Zukunft, unterschiedliche LLMs ansteuern, sodass wir davon ausgehen, dass wir da immer

00:34:49: ganz vorne mit dabei sein werden von der Qualität und der Geschwindigkeit. Dafür nutzen wir so

00:34:54: etwas wie einen Model Broker. Das heißt, die Sprache kommt rein. kommt an den Model Broker

00:35:01: und wird vergeben an das entsprechende Modell, das dahinter hängt. Und so bieten wir auch

00:35:05: eine gewisse Redundanz einfach. Falls mal wirklich ein Modell oder ein Service mit Backend ausfallen

00:35:09: sollte, ... können wir trotzdem noch liefern. Über ein anderes Modell zwar, vielleicht in

00:35:15: etwas verringerter Qualität, ... aber trotzdem wird noch geliefert. Und das ist ja auch wahnsinnig

00:35:20: wichtig. Das wäre tatsächlich noch eine Frage von mir gewesen. Einfach nur ... Produktbezogen,

00:35:25: dass man sich ja auch nicht zukünftig in Entwicklung verschließt, weil man jetzt sagt, okay, wir

00:35:30: nutzen das, wir entwickeln alles darauf hin, dass es mit diesem Modell funktioniert, sondern

00:35:35: das ist ja ein wahnsinnig schnelllebiges Feld, das haben wir in letzten Jahren gemerkt, werden

00:35:38: wir auch zukünftig noch merken. Wie du gerade angesprochen hast, wenn man so diesen Ansatz

00:35:43: verfolgt, bleibt man natürlich für technologischen Fortschritt offen. Das ist ja, wenn wir sagen,

00:35:49: wir wollen eine saubere Basis schaffen, der dann auch eben Module entwickelt werden können.

00:35:54: Das ist ja eigentlich das Wichtigste wirklich. Und da eröffnet uns eben auch die Möglichkeiten,

00:36:02: auch länderspezifisch zu wechseln. Oder von den Anbietern her, wenn man sich anguckt, wir

00:36:08: aktuell scheinen die amerikanischen Anbieter schon nach wie vor bisschen besser zu sein.

00:36:13: Das heißt, wir werden die mit anbinden. Aber wir gucken uns natürlich auch so in Entwicklung

00:36:16: wie Mistral. Frankreich sehr genau an und sobald wir den Eindruck haben, dass das qualitativ

00:36:21: auf dem gleichen Level ist, ich gehe davon aus, dass das relativ bald sein wird, dann bitten

00:36:27: wir natürlich bevorzugt europäische Player dann mit an. Klar. Das denke ich auch was,

00:36:32: was der Markt begrüßt, wenn man sich die aktuellen Entwicklungen anschaut. Schön formuliert.

00:36:38: Ich weiß gar nicht, was du meinst. Gut, dann haben wir den Überblick bekommen zum aktuellen

00:36:48: Stand Starface 9 und einen Ausblick, kleinen, Richtung Herbst dieses Jahres. Solange ist

00:36:53: es gar nicht mehr hin, wenn dann die große 10 auf einmal erscheint. In diesem Sinne vielen

00:37:03: Dank an euch für die Einblicke, sowohl darüber, wie wir Starface bei uns nutzen und uns besser

00:37:11: machen, aber eben auch ... Vielen, vielen Dank! Ja, der Stelle bleibt eigentlich nur noch zu

00:37:19: sagen, danke fürs Zuhören und oder Zuschauen und bis zum nächsten Mal. Tschüss aus Karlsruhe!

00:37:25: Ciao!

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.