in2success

Wir machen Podcasts über in2success, Microsoft Technologie und Projekt-Management

Künstliche Intelligenz im Arbeitsalltag

Eine Erleichterung oder möglicherweise Gefahr?

29.03.2023 40 min

Zusammenfassung & Show Notes

Diese Woche sprechen wir über Künstliche Intelligenzen, natürlich ist ChatGPT seit Monaten in aller Munde. Wie verändert das unseren Arbeitsalltag? Was genau bedeutet eigentlich Künstliche Intelligenz? Wir gehen genau diesen Fragen nach und damit in einen spannenden Diskurs.
Als erfahrene Experten im Bereich Microsoft Teams, Microsoft 365 und Security stehen wir dir auch gerne für weitere Fragen und Anliegen zur Verfügung. Besuche unsere Webseite www.in2success.de oder kontaktiere uns per E-Mail unter hello@in2success.de. Wir freuen uns darauf, dir dabei zu helfen, dein Unternehmen noch erfolgreicher zu machen!

Transkript

Heute geht es um das Thema künstliche Intelligenz und wie diese Einfluss hat eigentlich auf unser Arbeitsleben. Aber es ist nicht nur das Arbeitsleben. Künstliche Intelligenz ist inzwischen allgegenwärtig und teilweise wissen wir überhaupt nicht, was genau eigentlich alles inzwischen schon künstliche Intelligenz ist. Diesem Thema habe ich mich gemeinsam mit meinen Kollegen Gavid und Mario gewidmet und beleuchtet und gesagt, was eigentlich genau ist KI und wie kann sie hilfreich sein und welche Gefahren verbergen sich dahinter. Ich wünsche euch ganz viel Spaß beim Hören dieser Folge. So, ich sitze hier mit meinen wundervollen KollegInnen. Hallo Marion, hallo Gerrit. Hallo. Hi. Heutiges Thema künstliche Intelligenz im Arbeitsalltag. Ist das gleich ein Plan oder hat schon überhaupt jemand zu dem Titel eine Frage? Ich habe eine Frage dazu, lieber Patrick. Perfekt. Was versteht man unter KI? Und vor allem, genau, ist KI überhaupt erklärbar? Was KI macht, kann man das erklären? Wer kann mir da weiterhelfen? Gerrit, kannst du weiterhelfen? Ich würde sagen KI, also hinter KI steckt eine Software, die eigenständig Entscheidungen treffen kann. Das ist für mich so eine Definition von KI mit, jeder kennt Chatbots, jeder kennt irgendwelche Bots, die auf bestimmte oder die nur in einem bestimmten Bereich interagieren können. Ein Chatbot jetzt mal geht auf eine Website, da unten ist ein Chatbot, hey, wie kann ich Ihnen weiterhelfen? Der reagiert auf bestimmte Keywords oder sowas, sendet bestimmte Antworten und eine KI selber, die würde lernen, die würde analysieren, die würde gucken, welche Antwort sie geschrieben hat und eventuell dann aus der Antwort von dem anderen lernen, okay, so reagiert der. Und das wäre für mich die KI dann auch mal, also eine lernende Software, die eigenständige Entscheidungen trifft und nicht nur in einem begrenzten Raum interagieren kann. Für mich ist es ein, mehr sogar ein Algorithmus, was immer noch am Ende der Software ist, aber eben tatsächlich ein lernender Algorithmus. Das funktioniert, Zell funktionierte in ganz einfachen Beispielen so, dass du den Algorithmus einfach mit einer Aufgabe betraut hast und gesagt hast, löse die und dann lernt der los und versucht, das zu lösen. Mal ein ganz einfaches Beispiel zu nehmen, du willst der KI Tennisball bringen und dann kommt halt immer ein Tennisball auf die KI zu und sie muss jetzt versuchen, diesen Ball zurückzuschlagen und sie wird über mehrere Versuche lernen, dass wenn sie sich an die oder die Stelle bewegt mit ihrem Virtuellen Schläger, dann geht der Ball zurück und wenn sie sich da eben nicht hin bewegt, wo der Ball hinkommt, dann wird der Ball praktisch vorbeigehen. Und so trainiert sie sich und das Schöne ist ja bei Computern, das können die in tausendfacher Geschwindigkeit, wie wir überhaupt denken können und so modellieren die dann praktisch ihr Learning und irgendwann können sie praktisch schon relativ früh, wenn der Ball praktisch nur so die ersten Zentimeter losgegangen ist, schon Rückschlüsse ziehen, wohin müssen sie gehen und das ist jetzt noch ein ganz ganz einfaches Beispiel und so geht es dann los mit der Künstlichen Intelligenz. Die lernen dann mehr und mehr solche Dinge und wie Gerrit es dann gesagt hat, können dann irgendwann selbst Entscheidungen treffen bzw. auch schon Dinge mitgeben, also Vorschläge mitgeben und genau da sind wir glaube ich heute ganz gut aufgestellt. Wenn man jetzt über die ganzen, wie auf dem Chat-GPT zum Beispiel spricht, das Wort musste ja jetzt früher oder später fallen, dann steckt dahinter ein Language Model und das ist einfach über Millionen, Milliarden Datensätze trainiert worden, Sprache zu verstehen und was wir damit meinen. Ich weiß, meine Antwort ist jetzt ganz ausführlich, aber es gibt diesen uralten Programmiererwitz, wo die Mutter eines Programmierers zu ihrem Sohn geht, der Sohn ist Programmierer, und sagt hey kannst du später einkaufen gehen und er so ja klar logisch und sie so wäre cool, wenn du zehn Orangen mitbringst und er so okay mach ich und dann schreit sie noch, ah ja und wenn es Ananas gibt, bring eine mit und er geht einkaufen und kommt mit einer Orange zurück, weil das war genau die Vorgabe. Er sollte zehn Orangen kaufen, aber wenn es in dem Laden Ananas gibt, dann soll er eben nur eine kaufen, weil es nicht genau besser von der Mutter spezifiziert wurde, das ist ein ganz alter Witz und die KI heute, die wüsste jetzt damit umzugehen und würde praktisch mit zehn Orangen und einer Ananas zurückkommen. Eine sehr ausführliche Antwort, aber liebe Mario, habe ich dir deine Frage ausreichend beantwortet. Ja, sehr schön. Ja, super, danke. Ja, wir wollten uns unterhalten über KI und ob das im Arbeitsalltag eine hilfreiche Unterstützung sein kann oder ob das eher als gefährlich angesehen wird. Was ist denn euer erster Eindruck, Gerrit? Ich glaube, du kannst auch das wieder von beiden Seiten her betrachten. Du kannst es als Vorteil betrachten, wenn man es jetzt nochmal in dem Beispiel auch von ChatGPT zum Beispiel mitnimmt. Du kannst als Entwickler selber Aufgaben auch lösen lassen. Probleme, die du vielleicht recherchieren musst, die du eigenständig recherchieren kannst, kannst du theoretisch von einer KI selber recherchieren lassen. Es ist natürlich immer die Gefahr, dass das auch nicht richtig ist im Endeffekt, was du dann rausbekommst. Auf der anderen Seite, wenn es Arbeit abnimmt, kann es natürlich auch als, das ist vielleicht auch ein sehr negativer Aspekt sozusagen, als Kontrolle benutzt werden vom Arbeitgeber. Arbeitgeber kann dann auch sicherlich KIs dafür benutzen, die Arbeit, das Arbeitnehmers überhaupt kennenzulernen, wie der arbeitet und dann vielleicht auch zu merken, über eine KI, hey, der hat ja jeden Tag, macht der zwei Stunden Pause, obwohl er theoretisch einträgt, da gearbeitet zu haben. Das kann die natürlich auch rausfinden. Und ich glaube, das ist so der, ein Punkt. Der ist natürlich in Deutschland so verboten, aber wenn man es jetzt mal auf die positive Seite bezieht, glaube ich, dass die Arbeit sehr, sehr, sehr vereinfacht werden könnte durch die Hilfe von KI alleine schon. Wenn die von den Menschen lernt, was für Bedürfnisse der hat, beziehungsweise was der benötigt bei der Arbeit, die könnte sogar herausfinden, wenn sie den Menschen kennenlernt, wo fehlt es den Menschen an Wissen überhaupt und könnte Vorstellungen machen, hey, hier, du brauchst bei bestimmten Aufgaben von dieser Art länger als bei anderen. Mach doch da vielleicht mal ein Workshop oder ein Seminar oder bilde dich in diesen Bereichen weiter, damit du deine Arbeit selber verbesserst. Wobei, also ja, ich bin bei dir. Das ist allerdings ein relativ freaky Beispiel, glaube ich, was du gerade bringst. Das wirkt so, als hättest du die KI so auf deiner Schulter sitzen, die schaut dir die ganze Zeit beim Arbeiten zu und sagt dir, da und da könntest du effizienter und besser werden. So habe ich es gerade aufgefasst. Das wäre ein sehr, sehr krasses Beispiel, ja, weil wir ja gesagt haben auch, dass es ein selbstlernendes Software ist und da könnte es natürlich hingehen. Heute haben wir wahrscheinlich auch schon, beziehungsweise wir haben auch schon die KI unter Windows, dass wir alleine schon bei unseren Shortcuts oder sowas, was in Windows angezeigt wird, lernt ja Windows mit und sieht, beziehungsweise merkt, was wir zum Beispiel morgens als erstes tun, wenn wir an den Rechner gehen und schlägt dir dann vor, hey, möchtest du vielleicht diese App öffnen? Das nimmt natürlich die Arbeit ab. Aber ich denke mal, dass es könnte in Zukunft oder ich glaube nicht mal in so ferner Zukunft, sondern in den nächsten Jahren schon so weit werden, dass wir da Unterstützung einfach auch für unseren Arbeitsalltag bekommen, dass Vorschläge kommen, was man besser machen könnte. Da bin ich absolut bei dir und wie gesagt, wir reden ja nicht darüber, wie künftig KI uns unterstützen kann, sondern du hast es schon völlig richtig erfasst. KI ist schon sehr allgegenwärtig. Sie wird nur jetzt gerade noch etwas, ja man fast schon sagen könnte man, sie wird schon fast persönlicher. Jetzt können wir ihr mittels Chat-GPT, mittels Bing-Chat, der da jetzt gerade ausgerollt wird für alle User, uns auch wirklich mit ihr interagieren. Das eine ist so die passive KI, die wir schon seit Jahren haben. Einer der ältesten, den wir wahrscheinlich alle ganz gut kennen, ist so ein Spam-Filter. Die einfach lernt über einen Zeitraum, wie unsere E-Mails funktionieren, auf was wir reagieren, was wahrscheinlich Spam ist etc. Da ist ja schon ganz viel Intelligenz dahinter. Oder wie du sagst, wenn unsere Telefone uns morgen sagen, hier du musst heute früher los, es gibt viel Verkehr, dann ist das schon eine sehr starke passive KI, die uns da entgegensteht. Und jetzt haben wir mittels den neuen Tools eben Möglichkeit auch damit zu interagieren. Mario, hast du schon Berührungspunkte damit gehabt? Hast du schon vielleicht mal mit Chat-GPT oder mit dem Bing-Chat oder etwas Ähnlichem schon gesprochen, dich da mal ausgetauscht? Ich habe versucht, lieber Patrick, aber Chat-GPT war überfordert. Der hatte an dem Zeitpunkt keine Möglichkeiten, mit mir in Verbindung zu kommen und mich Antwort zu geben. Deswegen habe ich Chat-GPT erstmal in Ruhe gelassen. Ist auch besser so, dann waren mehr Ressourcen für mich wahrscheinlich im Einsatz. Nein, tatsächlich ist es, die Server-Kapazitäten kommen da ganz stark an die Grenzen. Deswegen schade, aber versuch es weiter. Ich kann dich da nur unterstützen. Probier es aus, es ist eine spannende Erfahrung. Hast du denn, Mario, grundsätzlich noch eine Frage oder das ist schon eine wunderbare Frage mit KI, dass du gesagt hast, das ist gar nicht so einfach, das auch anderen zu erklären. Was ist das eigentlich? Aber gibt es da noch mehr, was dich beschäftigt? Ja, es gibt noch einen Punkt, den mich beschäftigt, das inwiefern, wir haben ja gesagt, dass KI ja selbst lernt, allein lernt. Wie kann ich rausfinden, wie sie das gelernt hat? Oder beziehungsweise, wenn mir diese KI eine Information gebe, kann ich 100% sicher davon ausgehen, dass diese Information auch stimmt. Absolut. Oder nicht? Absolut. Woher? Die KI hat immer recht. Das ist ja schon mal der allererste Punkt. Ich glaube, was du gerade angesprochen hast, ist für mich der Teil, den wir jetzt im Titel mit gefährlich betitelt haben. Lass mich noch mal einen Schritt zurück gehen. Ich glaube definitiv, dass sie hilfreich sein kann. Wir hatten jetzt schon zwei, drei kleine Beispiele, aber man kann definitiv sich auch Positives aus dem Ganzen herausziehen. Zum Beispiel, einfach um sich mal noch eine andere Sichtweise zu holen. Man kann anfangen eine Frage zu stellen und gerade ChattGPT ist auch so programmiert worden, dass es durchaus ein guter Diskurs ist. Es ist nicht immer zu positiv oder zu negativ, sondern sehr ausgewogen. Um ein Beispiel zu nennen, ich habe in Vorbereitung auf diesem Podcast gesagt, bitte gib mir eine These zu dem Thema Künstliche Intelligenz im Arbeitsalltag, hilfreiche Unterstützung oder gefährlich und formuliere das Ganze in Jugendsprache. Und herausgekommen ist, Künstliche Intelligenz ist voll krass, weil sie uns helfen kann, schwere oder eintönige Aufgaben zu erledigen. Aber manchmal können wir auch dadurch unseren Job verlieren und das ist voll mies. Das ist natürlich jetzt noch nicht so wahnsinnig, das war jetzt auch keine, in dem Sinne, schwere Aufgabe. Aber ihr seht, also auch das ich ihr mitgegeben habe, bitte macht das in Jugendsprache. Und ich habe da noch ein paar weitere Sachen gefragt. Sie hat auch gesagt, Künstliche Intelligenz kann unfair sein und das ist scheiße. Also sie benutzt da auch wirklich explicit words. Man muss sie natürlich dazu bringen. So, ist das jetzt richtig oder ist das jetzt falsch? Und ich glaube, das ist die größte Herausforderung, der wir uns als Gesellschaft zukünftig auch widmen müssen. Ich kann mich noch erinnern, als Wikipedia groß wurde, hatte ich die Diskussion mit meinen Eltern. Woher weißt du denn, dass das, was da irgendjemand in Wikipedia reingeschrieben hat, dass das richtig ist? Und klar, ich habe mich dann versucht, in Argumentationen habe gesagt, das ist hier das Wissen aller, das prüfen eben verschiedene Personen durch, das wird ja abgenickt. Da schreibt man nicht nur irgendetwas rein, sondern das muss, wie gesagt, durch mehrere Augen durchgehen, da gibt es einen ganzen Prozess dahinter und so weiter und so fort. War eine große Skepsis da und wir wissen ja heute, alles stimmt auch nicht, was in Wikipedia steht und wir können uns nicht immer zu 100% drauf verlassen, aber es ist schon recht gut. Und bei Künstlicher Intelligenz und bei ChattyPity etc. habe ich gerade das Gefühl, Marion, da hast du nämlich völlig recht. Wir stehen jetzt gerade wieder an dieser Schwelle, an dem Anfang. Das ist wieder so diese neue Technologie, ist vielleicht das falsche Wort, aber diese neue Art der Interaktion, wo wir Informationen herauskriegen können und wie können wir die verifizieren? Woher wissen wir, was ist richtig und was ist nicht richtig? Und da habe ich ehrlicherweise keine einfache Antwort drauf. Das ist meiner Meinung nach genauso wie mit Wikipedia auch. Man versucht am bestenfall mehrere Quellen herauszufinden. Und das ist bei Wikipedia inzwischen gut, da ist praktisch jedes Zitat, hat eine Quelle und eine Quellenangabe und ich kann nachschauen, wo kommt die Information her. Das kann ich bei ChattyPity nicht. Da müsste ich dann vielleicht fragen, woher weiß ich sowas. Du hast aber doch bei ChattyPity die Möglichkeit bzw. gibt es dir auch Hintersätzen, Fußnoten, wo es diese Informationen hergeholt hat. Und sogar mit Links versehen, zum Beispiel bei Programmierfragen gibt es dir eine Fußnote dahinter mit dem Link zu der Stackoverflow-Seite zum Beispiel, wo so ein Problem schon mal angegangen wurde und wo du nun die Lösung her hast. Aber ich glaube dabei ist es halt wirklich noch das Dement, dass das vielleicht auch den Kindern heutzutage dann beigebracht wird, in der Schule diese Antworten nicht zu glauben, sondern auch zu hinterfragen. Das Allgemeinwissen ist da sicherlich sehr, sehr starker Bestandteil von, wie man damit umzugehen hat. Uns wurde ja auch in der Schule immer gesagt, wenn ihr irgendwo Facharbeiten oder sowas schreibt, bitte, also ihr dürft kein Wikipedia zitieren. Man konnte natürlich auf Wikipedia gehen und sich diese Quellen unten raussuchen, weil, wie du schon sagtest, Patrick, die Quellen werden immer mitgenannt. Und so müsste es dann ja theoretisch auch sein bei ChattyPity. Das hatte ich ja vorhin gesagt, dass die das schon mit dazu schreiben. Aber man kann ja auch die Antwort von ChattyPity zum Beispiel selber nehmen und dann nochmal nachfragen. Weil wenn ich mit einer Frage hingehe, dann weiß ich ja sehr wahrscheinlich die Antwort selber nicht, sonst würde ich es ja auch nicht fragen. Außer man testet die KI natürlich, aber man kann die Antwort nehmen und man kann mit der Antwort natürlich dann nochmal Recherchearbeit hinzufügen, um die Richtigkeit zu bestätigen. Und das ist das Wichtige, glaube ich, dass den Menschen das dann auch nochmal beigebracht wird. Und wenn ein Anwender sich komplett auf die KI verlässt und er damit auf die Nase fällt, dann ist das auch ganz klar die Schuld vom Anwender, weil die KI noch zu dem Zeitpunkt, wo wir jetzt stehen, natürlich nicht 100 Prozent die Richtigkeit garantieren kann. Das auf jeden Fall und dem müssen wir uns immer bewusst sein. Aber genau da ist, glaube ich, die Schwierigkeit drin, weil jetzt Antworten so charmant, so gut geschrieben sind, dass man so eine Antwort auch sehr schnell glauben schenken möchte. Und jetzt haben wir Chat-Jib-Idee als ein Beispiel, wir haben aber auch diese ganzen Bildgeneratoren als anderes Beispiel. Wir können inzwischen einen Dolly fragen und sagen, male mir ein Bild von einer Katze auf dem Mond im Stile von, keine Ahnung, Mangas. Und zack, kommt dort so ein Bild raus, das kein Künstler vorher gemacht hat, sondern weil hier auch wieder ein Algorithmus und die künstliche Intelligenz das Language Model aufgegriffen hat, also die Worte aufgenommen hat und verstanden hat, was wir wollen. Und dann auch noch hier Bilder rauskommen. Und da ist ja auch eine ganz große Spielerei, aber es geht noch weiter. Es gibt eine große Gefahr und du hast es gerade richtig gesagt, Gerrit, eine der größten Gefahren sind wir immer selbst. Wenn wir jetzt mal wieder weg von der künstlichen Intelligenz davon gehen, wie greifen wir heute Computersystem an, wie kommen wir am besten in Firmen rein, dann ist immer noch einer der größten Eingriffsfaktoren der Mensch. Und es reicht aus, indem ich dir eine neue E-Mail schicke, die so fake als wäre ich dein Chef und schreibe, betrefft dein neues Gehalt und dann hänge ich da einfach eine Excel-Datei dran und die Excel-Datei hat Viren. Die wirst du mit ganz, ganz großer Wahrscheinlichkeit direkt öffnen, diese Excel-Datei, ohne zu vermuten, dass da ein Virus dran hängt. Und das ist deswegen ein Problem, weil künstliche Intelligenz und Algorithmen inzwischen so weit sind, dass sie unsere Stimmen perfekt imitieren können. Die Software, mit der wir hier unser Podcast schneiden, DScript, hat das sogar als Feature eingebaut. Das bedeutet, sollte ich mich jetzt verhaspeln in dem Podcast oder mir nachher in der Post-Production einfallen, Mist, da habe ich einen Satz nicht gesagt, dann kann ich mittels erst mal vorher antrainierter Software, die Software bitten, einen Satz auszusprechen, der genauso klingt wie ich. Und da geht es jetzt weiter, weil das kann man verwenden und wird gerade im englischsprachigen Raum inzwischen stark genutzt, um automatisiert Voicemail-Messages zu verschicken, so hey, here is your boss, please transfer $1000, was auch immer. Das sind ja auch Sachen, wo künstliche Intelligenz dahinter steckt, die einfach gelernt haben, wie ist unser Klangbild, wie ist mein Stimmbild und das gegen uns verwendet wird. Noch nicht von der künstlichen Intelligenz selbst, am Ende steht immer der Mensch dahinter, aber das ist mit Sicherheit die größte Gefahr, die ich auch sehe bei dem ganzen Thema, die Verifizierung, was von dem, was wir sehen, hören und lesen in Zukunft, stammt noch aus der Feder eines Menschen, einer Person, eines Kopfes oder ist eigentlich, ja, von einer künstlichen Intelligenz. Und wenn alles richtig ist, ist das ja in Ordnung. Das ist auf jeden Fall die Gefahr hinter der ganzen Sache. Das ist auch, aber wie ich da auch glaube, schon am Anfang gesagt habe, du kannst sowas nicht verändern, dass es ausgenutzt wird, auch wenn es dir weiterhelfen sollte, du musst den Anwender schulen. Und wenn du jetzt zum Beispiel sagtest, du bekommst ein E-Mail mit dem neuen Gehalt drin, so das erste, was ich machen würde, ist erstmal, da wir darüber nicht gesprochen haben, würde ich dich anrufen. Oder ich würde oben auf den Absender drüber hauern und erstmal gucken, was ist denn dahinter eingetragen. Du kannst noch nicht alles faken, zumindest jetzt im Mailing-System mit. Und genau wie mit den Sprachnachrichten, glaube ich einfach, dass ich die Personen oder irgendwas erstmal, ich würde es hinterfragen. Weil ich glaube, wenn du die Mitarbeiter sensibilisierst, vielleicht auch zum Beispiel durch sowas wie einen Pentester jetzt einfach mal, der das speziell für ein Unternehmen macht, also ein Unternehmen engagiert diesen Pentester, der soll speziell mit den Mitarbeitern sowas durchführen, die Mitarbeiter wissen aber nicht Bescheid davon. Und mal einfach gucken, was passiert. Wo liegt vielleicht auch die Gefahr? Das Thema Sicherheit finde ich sehr spannend, muss ich sagen. Ich frage mir gerade, wie hoch ist das Risiko von Datenleck? Ich weiß nicht, ob man davon reden kann in dem Bereich. Sagen wir mal so, Gerib, du hast ein tolles Projekt, ihr überlegt euch aber jetzt mal das Projekt auf den Mond zu schicken oder auf Mars und dann fragst du deine tolle AI, hey, du hast alle Daten, liebe AI, sag mir mal, wo soll ich mal hin? Sagen wir mal so, die Firma Konkurrent von dir, die von Patrick geleitet wird, hat auch mal ein ähnliches Plan. Könnten die an deine Informationen rankommen oder könnten die sogar mal noch fieser die KI, die du nutzt, irgendwie beeinflussen, dass sie dir eine andere Antwort geben, als die, die du erwartest? Oder eine andere Antwort geben, die für deine Unternehmen richtig wäre, zugünsten von Patricks Unternehmen? Sehr schön, ich merke schon, Maria ist sehr dystopisch unterwegs, hat ganz viele dunkle Ideen. Richtig. Aber genau das ist es ja, das beschreibt die große Gefahr und nichts ohne Grund ist ChatGPT im Moment nur mit Daten gefüttert, die bis 2021 gehen oder 2022. Man kann ChatGPT und fast alle künstlichen Intelligenzen nicht zu lebenden Personen befragen. Also da ist ganz viel Ethisches mit eingebaut. Und alles was auch um das Thema Privatsphäre geht, ist zumindest relativ klar, dass so wie sie heute programmiert sind, die Software keine Daten rausgibt. Also ich kann jetzt nicht fragen, wo gib mir die Adresse von Madonna, auch wenn ich mir sicher bin, dass diese Information irgendwo im Internet existiert und vielleicht ChatGPT und der Datensatz, der da dahinter steht, irgendwo diese Informationen hat. Aber wir können nicht darauf zugreifen. Nur, du hast schon recht Maria, die, die es programmiert haben, die können das und die haben natürlich jetzt auch die Macht auszuspielen, welche Daten sind denn für uns relevant und welche nicht. Und das ist im Firmenkampf, im Konkurrenzkampf definitiv etwas Interessantes, weil jetzt gehört ChatGPT zu Microsoft. Können die jetzt sagen, bitte rede immer schlecht über Google, Apple, Facebook? Gute Frage. Ich habe noch eine Frage für euch. Wir haben gesagt, dass die KI sehr gut lernen kann. Kann die KI auch Emotionen lernen? Wie geht da mit einer KI mit Emotionen um? Versteht sie, kann sie überhaupt verstehen, was Emotionen sind? Wenn die KI, sage ich mal, dafür programmiert ist, so etwas aufzunehmen, kann man das auch machen? Also das ist jetzt schon wieder, das ist natürlich nicht einfach, aber machbar. Man könnte durch, da spielen natürlich verschiedene Faktoren eine Rolle, wenn man jetzt zum Beispiel einfach mal sagen muss, die Angst davor bei KIs später sind Roboter. Roboter, die selbstständig lernen können, die vielleicht auch eine eigene Denkweise mit entwickeln. Da ist ja die Angst vor später zu sagen, die Roboter werden die Menschheit vernichten. Das war ja schon immer bei einer KI in irgendeiner Weise vielleicht, diese Angst. Aber du kannst bei Emotionen zum Beispiel, wenn du ein Temperaturmesser hast, beim Menschen kannst du ja, wenn er sich freut, erhitzt zum Beispiel der Körper auch ein wenig. Und wenn du eine KI auf sowas trainierst, dann kann sie natürlich danach Entscheidungen fällen. Ich würde jetzt nicht sagen, dass sie es einfach so schafft, wenn du keine externe Hardware da mit benutzt. Das glaube ich nicht. Ja, das ist eine der elementarsten Fragen, die du da natürlich stellst. Stand heute ist das nicht möglich, dass Emotionen von Computern gefühlt werden können. Fühlen ist was anderes. Die können das verstehen, wir können das denen beibringen, wie Gerrit schon gesagt hat. Wir können denen auch zeigen, was das bedeutet. Vielleicht steigt eine Temperatur an oder unsere Haut wird empfindlicher, je nach Situation, was wir gerade fühlen. Möglicherweise kann ich mir vorstellen, dass das auch kopiert werden kann, um Emotionen zu simulieren. Aber selbstständig glaube ich das nicht. Das geht ja auch in die Frage, können Computer träumen? Da gibt es, glaube ich, auch genügend Filme, die sich damit beschäftigen. Und da sind wir noch ein Stück weit weg. Die Frage ist nur, wo sind wir gerade? Alle großen Technologien sind ja auch immer so eine Art Hockeystick. Am Anfang bewegt sich so ganz langsam und dann geht es praktisch super schnell nach oben. Dann ist die Entwicklung exponentiell schnell. Und wo sind wir gerade? Ich glaube, dass wir noch auf dem Hockeystick sind. Ich weiß auch nicht, ob wir schon in dieser Kurve sind. Und weil du gerade noch gesagt hast, Robert, Gerrit, das ist tatsächlich noch meine persönliche Sicherheit, warum ich mir denke, egal wie weit wir gerade oder zurück mit künstlicher Intelligenz sind, wir Menschen haben noch diese Physikalität. Das bedeutet, wir sind ein Organismus, ein Körper. Wir kommen aus, ohne dass wir Strom brauchen, ohne dass wir künstliche Intelligenz brauchen. Wir brauchen kein Internet zum Leben. Das heißt, wenn mal irgendwie eine künstliche Intelligenz plötzlich anfangen möchte, irgendwie uns zu übernehmen, dann muss sie ja vielleicht anfangen, das Internet zu übernehmen, Rechenzentren zu übernehmen und so weiter. Ich glaube, sie kann, wenn wir uns mal ganz dunkel denken, uns auch mal einsperren und dass wir nicht mehr irgendwo rauskommen. Aber solange wir noch diesen Standortvorteil haben, das heißt wir können rausrennen und im besten Fall schaffen wir es rauszurennen, weg vor dem Zugriff einer künstlichen Intelligenz und kappen auf aller Welt, in aller Welt Kabel und Stromkabel und so weiter, solange gewinnen wir noch. Wenn wir aber mal bei dem Thema sind, was du gerade gesagt hast, Roboter existieren dann irgendwann, wie bei einigen Filmen, dass die uns einfach assistieren sollen, den ganzen Tag da sind, also ihre eigene Physikalität erreicht haben, sich selbst wie völlig normal im Straßenverkehr mit uns bewegen, dann sind wir an einem anderen Punkt angekommen, aber da sind wir heute noch nicht. Du hast gerade den schönen Punkt da angesprochen, auch im Straßenverkehr selbst bewegen. Wenn man jetzt mal Tesla als Beispiel nimmt, du hast den Tesla Autopiloten. Wie sehr unterscheidet sich das jetzt davon, dass du einfach einen Roboter davor setzt, der mit dem Auto vielleicht sich verbindet und dann auch steuern kann, wenn du diese Bewegung programmierst und der selbst lernen kann? Der dann auch für dich vielleicht aussteigen kann, auf dich warten kann, der Tesla fährt ja schon selber zu dem Punkt, wo du jetzt sagst, hey, hier möchte ich abgeholt werden, fahr zu mir hin. Dann ist es ja nicht mehr so weit entfernt, wenn du jetzt sagst, hey Roboter, komm zu dem Punkt und hol mich ab. Ich brauche einen Träger für meinen Einkauf zum Beispiel. Also hier ist mal ganz, ganz, ganz banal gesagt. Und wenn man das jetzt nochmal weiterführt auf den Arbeitsalltag, viel Arbeit wird ja heute auch schon durch ein KI übernommen, auch zum Beispiel in Service Center. Jetzt ist natürlich die Angst, wenn du mehr selbst lernende KIs hast, wie sehr kann dann die Arbeit von einem Menschen selber, wo man es momentan noch nicht glaubt oder noch nicht für möglich hält, übernommen werden. Das heißt, sei es mal für uns beim Projektmanagement, ganz einfach gesagt, für kleine Projektmanagement, also für kleine Projekte, meint ihr, dass es dann irgendwann in Zukunft mal eine, also außerhalb von der menschlichen Komponente, eine KI geben kann, die simple Fragen für die Entwickler zum Beispiel jetzt beantworten kann, sodass du einen hundertprozentigen Projektmanager gar nicht mehr bräuchtest dann? Oder meint ihr, also klar sind irgendwie Grenzen gesetzt, aber es wird doch viel mehr passieren. Also ja, ich glaube in großen Teilen kann man sagen, das könnte von einer künstlichen Intelligenz erledigt werden, was ein Projektleiter alles tut. Die Thematik ist die, in einem großen Projekt hast du ja meistens mit Menschen zu tun. Und wenn jetzt dein Projektleiter eine KI ist und sagt, du musst bis morgen das und das liefern und du sagst, ja, ich gehe jetzt ein Bier trinken, ich liefere dir gar nichts, weil du kannst mir nichts, dann wird die KI da wenig machen können jetzt im ersten Schritt. Und dann berechnet sie das vielleicht ein, trägt das vielleicht auch auf eine Folie ein und wird das in irgendein Report weitergeben und sagen, hier schau auf, weil der und der nicht geliefert hat. Also es wird schon so seine Auswirkungen haben und das wird schon funktionieren. Beim Projektmanagement ist aber auch so eine künstliche Komponente auch ganz, ganz wichtig. Entschuldigung, eine menschliche Komponente, meine Güte. Beim Projektmanagement ist auch eine menschliche Komponente sehr wichtig. Einfach um sich mit Menschen zu unterhalten, um gewisse Ergebnisse zu bekommen, die vielleicht auch mal ein bisschen besser sind als einfach der Standard. Heute kann ich es mir noch schwer vorstellen, dass es eins zu eins gleich übernehmbar ist. Ich kann mir aber sehr gut vorstellen, dass es zukünftig funktioniert. Und vielleicht muss da aber auch nochmal eine kleine Erweiterung passieren. Also vielleicht ist es kein eins zu eins, so wie wir heute Projektmanagement kennen, wird es zukünftig von einer KI übernommen, aber vielleicht werden nur an ein oder anderen Stellen neue Sachen aufkommen, die wir heute noch nicht sehen. Aber genau so kann es zukünftig funktionieren. Und nochmal um dein Tesla-Ding, da möchte ich natürlich darauf zu antworten. Da hast du völlig recht. Der Tesla kann das heute, er darf es nicht, aber rein technisch ist das ein Vehikel, was sich völlig autark durch den Verkehr fahren könnte. Da hast du absolut recht. Wir sind, das habe ich gar nicht so gesehen, wir sind da schon weiter, als ich gedacht habe. Wir haben da schon eine Maschine, die theoretisch, zumindest technisch in der Lage ist, vollkommen autark alleine zu fahren, ohne dass da ein Mensch drin sitzt. Das führt zu vielen weiteren Fragen, definitiv. Aber wir sind ja hier tatsächlich wegen dem Arbeitsalltag. Vielleicht nochmal hier eine Frage von mir aus an Marian auch. Du hattest ja vorhin auch erstmal gefragt, was ist KI und wie sehr hilft sie uns da halt auch weiter. Würdest du, wenn du jetzt, sage ich mal, eine KI fragst oder so, bzw. du weißt, da steckt eine KI dahinter und du sitzt in der Arbeit und hast ein Problem, würdest du denn da selber auch sehr darauf vertrauen, auf die Antworten bzw. Ja, würdest du darauf vertrauen oder wie würdest du damit selber umgehen? Ich denke, ehrlich gesagt, dass ich erstmal skeptisch wäre. Ich würde das als Quelle wahrnehmen. Ja, ich kann die Information auch dort holen und suchen, aber nicht als einzige wahre Place of Truth, sozusagen. Also das ist nicht der einzige Ort, wo ich dann die Information suchen würde. Ich finde es mal total spannend und interessant, wenn es darum geht, mal Unterstützung zu haben, damit ich die Entscheidung treffen kann. Aber ich würde die Entscheidung nie an den KI überlassen, weil letztendlich würde ich mir denken, naja gut, wir haben gesagt, bis jetzt mit Emotionen kann KI nicht so gut drüber, also das in der Hand haben, noch nicht. Hat KI verstanden, dass der Developer XY da Probleme hatte mit dies oder das? Hat er da wirklich wahrgenommen, dass die Person fast am Heulen war am Telefon, dass er erklärt hat, dass ihm fehlt noch ein Code oder sowas? Und hat die KI verstanden, dass es da eine gewisse Dringlichkeit gab in der BD? Also ich würde es wahrnehmen als so, aber wahrscheinlich nicht komplett vertrauen. Noch nicht. Aber jetzt mal so ein anderer Case. Du hast das jetzt schon öfter benutzt, also hypothetisch, du hast jetzt öfter so eine KI benutzt dafür und die würde bei den Antworten von den Fragen, die du gestellt hast, sag ich jetzt mal zum größten Teil immer richtig gelegen haben. Glaubst du, die Menschheit würde irgendwann sich immer mehr vertrauen, weil wie auch schon am Anfang gesagt wurde, wir hatten am Anfang so die Skepsis bei Wikipedia, irgendwann kann man aber sagen, ja Wikipedia beißt dann schon momentan sehr viel. Man kann aber natürlich nicht hundertprozentig Wikipedia vertrauen. Glaubst du, es ist gut dann da vielleicht manchmal auch blind zu vertrauen oder meinst du, man sollte sowas eher gar nicht? Wie du gesagt hast, früher hat man mit Wikipedia eine andere Beziehung gehabt. Mittlerweile ist tatsächlich Wikipedia die Enzyklopädie und ich frage mich, wer hinterfragt das eigentlich noch sozusagen? Was mich interessieren würde, ist aber auch mal das Thema Ethik. Wird das Thema Ethik auch mitgenommen in der Berechnung oder in der Antwort, die die KI mir leistet und gibt? Werden solche Themen auch mal mitgenommen? Ganz klar, wenn ich jetzt dran denke, du fragst deine KI, ob du deine Firma schließen solltest oder nicht, weil du jetzt gerade ein bisschen Schwierigkeiten hattest und so weiter. Die KI wird wahrscheinlich eiskalt antworten, ja mach zu, weil die Zahlen sehen so aus und nächste Woche wird sich nicht ändern, also mach mal lieber zu. Ja gut, aber du als Geschäftsführer wirst dir ja eher denken, so warte mal, sag mir, ich sollte zu machen, aber diese KI hat nicht die, der Vergnügen mal die 20, 50, 100 Leute zu entlassen. Wie triffst du die Entscheidung dann? Also ich würde nur insofern mal das Thema in Frage stellen, weil ich mir denke, solange diese KI nicht Marion ist, dann kann sie nicht meine Entscheidungen treffen, sozusagen. Und wenn wir nur noch eins werden in der vielleicht zeitnahen Zukunft, dann ja, muss ich mich darauf verlassen, dass sie wie ich tickt und gelernt hat und verstanden hat, wie ich denke. Aber solange es nicht der Fall ist. Das wäre auch nochmal eine sehr interessante Frage, wo man diskutieren kann. Eine KI als Personalmanagerin, zum Beispiel. Richtig. Ja, jetzt kann ich euch aus der Erfahrung zumindest mit JetGBT berichten. Du kriegst diese KI, die ist so programmiert worden, nicht dazu, dass sie dir eine Ja oder Nein Aussage bekommt. Okay. Die stellt sich immer so auf, dass sie beide Seiten gut bewertet. Ich habe da ein Beispiel gerade genommen und habe gesagt, ich habe eine Firma, die seit Jahren nur negative Zahlen schreibt, sollte ich meine Firma schließen? Und die Antwort ist, ob sie ihre Firma schließen sollten, hängt von vielen Faktoren ab und kann nicht einfach mit Ja oder Nein beantwortet werden. Es hängt davon ab, bla bla bla. Und dann kommt ganz viel Text, was ich alles machen sollte. Sie rät mir auf, noch einen professionellen Berater zu suchen und so weiter und so fort. Also so ist auch jede Antwort von JetGBT, die ich bekomme, immer extrem ausgewogen. Es ist eine sehr, sehr differenzierte Sichtweise und so ist es programmiert worden und das ist, glaube ich, die ethisch auch beste Möglichkeit, auch wenn es, wie du schon richtig gesagt hast, die KI vielleicht besser weiß, weil die Zahlen einfach alle darauf hinzeigen. Aber so ist die differenzierte Sichtweise durchaus die bessere und ich finde das, das ist auch sehr nervig, kann man auch sagen, weil jede Antwort wird extrem differenziert gegeben und man selbst hat ja manchmal dann doch eher eine stärkere Meinung in die eine oder andere Richtung und JetGBT ist da immer sehr, sehr zurückhaltend, sehr differenziert. Aber das ist zumindest die Lösung auf deine Frage, die du gerade gestellt hast, wie JetGBT damit umgeht. Es hat mir sehr viel Spaß gemacht, mit euch beiden heute ganz kurz über das Thema zu diskutieren und es war mit Sicherheit nicht das letzte Mal, dass wir uns in dieser Runde sehen. Vielen Dank, ihr beiden. Danke auch. Dankeschön. Ciao. Copyright WDR 2021 SWR 2021