Zusammenfassung
- Untersucht menschenzentrierte KI- und Datenstrategien in modernen Organisationen.
- Stellt die fünf Cs vor: Kompetenz, Zusammenarbeit, Kommunikation, Kreativität und Gewissenhaftigkeit.
- Behandelt die Auswirkungen der KI auf Arbeitsplätze, Gesellschaft und ethische Verantwortung.
- Hervorhebung der Balance zwischen KI und menschlichen Rollen sowie proaktiver Regulierung.
Kapitel
Jenka, willkommen bei Data Explode. Vielen Dank an alle, die zuhören und zuschauen. Mein Name ist, ich bin Chefanalyst bei Ian.
Äh, und ich erzähle die Geschichte der Datenintelligenzplattform, die wir entwickeln. Aber darüber werden wir in diesem Webinar nicht sprechen. In unserem Webinar geht es überhaupt nicht um unsere Technologie.
Bei diesem Treffen, dieser Reihe, geht es wirklich darum, neue Trends und Ideen in der Daten- und KI-Community zu erkunden. Dazu laden wir Gäste ein, Autoren, Praktiker, Vordenker. Und heute habe ich Ang, Kai Fng, und Ang Kai bei mir, Sie sind bei ThoughtWorks, Sie sind Daten- und KI-Strategiedirektor bei ThoughtWorks.
Mm-hmm. Möchten Sie uns ein wenig über sich erzählen? Danach werde ich näher auf das Thema eingehen.
Ja, auf jeden Fall. Es ist toll, hier zu sein. Ähm, eine kurze Selbstvorstellung.
Also, ich arbeite, wie Sie bereits erwähnt haben, als Direktor für Daten- und KI-Strategie bei ThoughtWorks, einem Beratungsunternehmen, das sich auf maßgeschneiderte Daten- und Technologielösungen spezialisiert hat. Und ja, ich interessiere mich sehr für die menschliche Seite von Daten und KI, weshalb ich zwei Bücher darüber geschrieben habe: „Humanizing Data Strategy“ und „Humanizing AI Strategy Topics“, über die wir heute in diesem Webinar auf jeden Fall sprechen werden. Und ja.
Ähm, in der Zwischenzeit bin ich auch ein großer Fan davon, Daten und KI unterhaltsamer und zugänglicher zu gestalten, richtig? Deshalb nutze ich viele Methoden wie meine musikalischen Talente oder Witze oder Memes und solche Dinge, um dieses Thema weniger beängstigend und einschüchternd und stattdessen inklusiver und zugänglicher zu machen, damit sich jeder an der Diskussion beteiligen kann. Vielen Dank, Chen Kai.
Auf jeden Fall. Ich mag Ihre Musik sehr und Ihre Bücher natürlich auch. Also, meine Idee, der Grund, warum ich dieses Webinar mit Ihnen machen wollte, mm-hmm.
Weil ich, genau wie Sie, natürlich alles verfolgt habe, was so passiert, wie zum Beispiel die Entwicklung der KI. Und natürlich sehen wir, dass viele Menschen Bedenken haben, sogar Angst, und alle fragen sich: Wird sie meinen Job ersetzen? Wird sie mir meine Aufgaben wegnehmen?
Äh, wird die Gesellschaft insgesamt schwieriger, äh, beängstigender werden? Äh, was würde passieren? Also, meiner Meinung nach viele negative Gedanken, aber auch sehr erklärbar und sehr, sehr verständlich.
Ähm, aber als ich Ihr Buch gelesen habe, kam mir ein Gedanke, also lassen Sie mich das einfach vor mir aufschreiben, ich denke, äh, Daten, äh, KI-Strategie, ja. Äh, äh, als ich Ihr Buch gelesen habe, äh, das ist Ihr zweites Buch, äh, „Humanizing AI Strategy”. Mm-hmm.
Ich konnte nicht anders, als zu denken, dass dies eine Art Buch war, das diese Perspektive ein wenig umkehrte. Ich sah viel Positives und viel Potenzial in diesem Buch, und das ist wirklich das, was ich möchte, mm-hmm. In diesem Gespräch mit Ihnen möchte ich dieses PO-Potenzial für, für, für Menschen entfalten, die Initiative zu ergreifen und zu definieren, was wir mit KI nutzen wollen, anstatt die KI die Entwicklung dessen diktieren zu lassen, was in der Gesellschaft passieren wird, und einfach nur das Gefühl zu haben, Zuschauer zu sein, ist etwas, das unvermeidlich ist.
Ich spüre das natürlich selbst, aber ich denke, wir könnten uns auch einen Moment Zeit nehmen und versuchen, die Perspektive ein wenig zu ändern. Ich habe viele Fragen vorbereitet, aber bevor wir uns damit befassen, möchte ich kurz einen kurzen Abschnitt aus dem Schlusswort vorlesen. Und nein, es handelt sich dabei nicht um einen Spoiler.
Äh, ich verspreche es. Äh, es ist so: Welche Entscheidungen müssen in menschlicher Hand bleiben. Ganz gleich, wie weit fortgeschritten KI wird, ich spreche hier nicht von regulatorischen Anforderungen oder technischen Einschränkungen.
Ich beziehe mich auf die Entscheidungen, die uns als Spezies prägen, die Entscheidung, ein neues Leben in die Welt zu setzen, die Entscheidung, die Pflege für jemanden zu beenden oder zu verlängern. Wir lieben das Urteil über Schuld oder Unschuld, wenn es um Freiheit geht, den Funken der Inspiration, der etwas wirklich Neues schafft. Das sind nicht nur Aufgaben, die optimiert werden müssen, sondern Ausdruck der Menschlichkeit selbst.
Ja. Du schreibst wirklich gut, Kar, das ist ein toller Abschnitt. Danke.
Nein, aber du schon. Du schon. Ja.
Das tun Sie wirklich. Ich bewundere das. Also zunächst einmal, mit dieser Einleitung, als wäre es eine Schlusspassage in Ihrem Buch, aber in diesem Gespräch verwende ich sie als als Einleitung, ähm, mm-hmm.
Äh, um Ihnen die Frage zu stellen: Was hat Sie dazu motiviert, dieses Buch zu schreiben? Warum ein Buch über die Strategie der Humanisierung der KI? Absolut.
Also, ich meine, es gibt einerseits den praktischen Grund dafür, denn als ich mein erstes Buch „Humanizing Data Strategy“ schrieb, gab es viele Überlegungen dazu, wie die Verbindung zur KI-Seite bereits aussieht, richtig? Da wir heute alle wissen, dass Daten und KI sehr eng miteinander verbunden sind, habe ich mich entschieden, diese Gedanken beiseite zu lassen, anstatt sie in mein erstes Buch zu zwängen und damit zu sehr vom Kern des Themas Datenmanagement Datenstrategie abzuweichen. Ich habe mir gesagt: Okay, ich werde diese Gedanken beiseite lassen, und vielleicht wird daraus ein zweites Buch. Und wie sich herausgestellt hat, wurde es tatsächlich ein zweites Buch.
Und, äh, das war im Grunde genommen, ähm, deshalb fühlt es sich auch wie eine Fortsetzung des ersten Buches an, richtig? Aber der wichtigere Grund, warum ich denke, dass es der richtige Zeitpunkt war, es zu tun, und warum ich es so schnell tun wollte, war, dass ich es im Grunde genommen ein Jahr nach meinem ersten Buch veröffentlicht habe, richtig? Also habe ich den Prozess wirklich beschleunigt, weil ich sicherstellen wollte, dass wir nicht die gleichen Fehler aus der Vergangenheit wiederholen, als wir nicht menschenzentriert waren, indem wir KI einsetzten und einfach dem Technologie-Hype folgten, ohne darüber nachzudenken, was das eigentlich für die menschliche Gesellschaft und für die Menschheit als Ganzes bedeutet.
Und deshalb denke ich auch, dass viele Dinge zwar neu sind und die technologischen Fortschritte so groß sind wie nie zuvor, aber gleichzeitig ist es nicht das erste Mal, dass wir mit disruptiven Technologien zu tun haben, oder? Und oft mussten wir in der Vergangenheit auf die harte Tour lernen, wie wir im Grunde genommen zu sehr in die eine Richtung gegangen sind, zu sehr in die andere Richtung, bis wir die Mitte gefunden haben. Ich hoffe also, dass wir durch das Schreiben dieses Buches mit der KI-Technologie zumindest etwas zielgerichteter vorgehen und versuchen können, diese ausgewogene Mitte schneller zu finden, ohne ebenfalls auf die harte Tour lernen zu müssen.
Und ich meine, es gibt eine Sache, die ich auch in dem Buch erwähnt habe, richtig? Weil KI mit menschlichen Output-Daten trainiert wird, richtig? Mit dem, was Menschen in der Vergangenheit getan oder gesagt haben, oder wie sie sich verhalten haben. Wenn man das nicht gut kuratiert, lernt sie auch von den schlechten Dingen, die wir als Menschheit getan haben, richtig?
Und je weiter wir in der Zeit zurückgehen, desto mehr Schlechtes haben wir getan, das wir erst jetzt als Schlechtes erkennen. Und damals haben wir es nicht als Schlechtes angesehen, oder? Ja.
Wenn wir also die KI einfach daraus lernen lassen, ohne zu beurteilen, ob dies gut oder schlecht ist, könnte sie die Fehler auch verstärken, oder? Und sie tut dies schneller und in größerem Umfang. Das bedeutet auch, dass einige der verstärkten Fehler möglicherweise nicht mehr behebbar sind, oder?
Wir müssen also tatsächlich sehr vorsichtig sein, damit KI von den guten Dingen lernt, die wir als gute Handlungen und gute Ergebnisse beurteilen, und versuchen, die schlechten Dinge zu vermeiden. So wird sie tatsächlich zu dem, was wir uns wünschen: eine Chance und ein befähigender Mechanismus und nicht etwas, das uns in Zukunft vielleicht umbringen könnte. Richtig?
Wie zum Beispiel im Terminator-Stil. Ja. Das ist sozusagen die Logik und die Motivation, warum ich dieses Buch geschrieben habe.
Ja. Nun, danke. Das macht Sinn.
Ähm, in Ihrem ersten Buch haben Sie das Framework entwickelt, Framework . Wir werden darüber in ein paar Fragen sprechen, äh, aber ich möchte schon jetzt wissen, was ist das Framework? Wofür wurde es ursprünglich entwickelt?
Ja, die fünf Cs stehen im Grunde genommen für fünf Aspekte dessen, was ich als Menschzentriertheit innerhalb einer Daten- oder KI-Strategie verstehe. Sie stehen für Kompetenz, Zusammenarbeit, Kommunikation, Kreativität und Gewissenhaftigkeit. Und das sind nicht nur Eigenschaften, die wir als Menschen haben und die wir ohnehin gerne pflegen oder anwenden möchten.
Ich denke, dass wir bei der Arbeit einfach nicht oft genug darüber nachdenken, insbesondere im Bereich Daten und KI. Und das erste Buch über Datenstrategie sollte dazu dienen, Daten wertvoller zu machen. Das bedeutete, tatsächlich auf die Bedürfnisse der Menschen in diesen Bereichen einzugehen, damit sie Daten im Kontext der KI immer häufiger gemeinsam nutzen, um damit mehr Wert zu generieren.
Nun hat es einen etwas anderen Schwerpunkt, denn es geht nicht darum, KI mehr zu nutzen, da KI wohl bereits überall zu finden ist und jeder sie bereits in gewissem Umfang nutzt. Es geht darum, sie bewusster und klüger einzusetzen. Die fünf Cs haben also im zweiten Buch tatsächlich eine andere Ausrichtung erhalten.
Und insbesondere wenn wir auch an die Eigenschaften denken, die ich erwähnt habe, sind Maschinen nun in der Lage, dies zu tun oder es ebenfalls zu imitieren, nicht wahr? Nur als Beispiel: Kommunikation ist nicht mehr nur Kommunikation von Mensch zu Mensch, sondern auch von Mensch zu Maschine, von Maschine zu Maschine und von Maschine zu Mensch, die jetzt alle eine Rolle spielen. Und das ist sozusagen ein Beispiel dafür, wie die fünf Cs in einem anderen Licht für den KI-Bereich betrachtet werden.
Ja, auf jeden Fall. Und, äh, wir können uns mit den technischen Details befassen, wenn Sie möchten. Sicher.
Ähm, aber bevor wir das tun, ähm, haben Sie, äh, und ich werde die Seite genau nennen, auf Seite 51 haben Sie diese, äh, diese Auswahl an, äh, Hüten, die Sie tragen können. Ähm, ich würde gerne einige dieser, ähm, Rollen oder diese Hüte, die man als Mitarbeiter tragen kann, durchgehen und vielleicht versuchen, sie zu entfalten. Wie können wir KI bewusst einsetzen, wenn wir diese Hüte aufhaben, wenn wir diese Rollen haben, wie können wir darauf drängen, darüber zu diskutieren, in dem Buch, aber ich würde das gerne entfalten.
Also, falls Sie sich nicht daran erinnern können: Der erste ist der Therapeut. Mm-hmm. Ähm, und, äh, Sie haben eine Situation erwähnt, äh, in der es zu Widerstand gegen die Einführung von KI-Tools kommen könnte, äh, ja.
Äh, und wo das Ziel darin bestehen würde, eine emotionale Sicherheit aufzubauen und Ängste abzubauen, mm-hmm. Durch den Einsatz von Empathie und Change Management. Können Sie das ein wenig näher erläutern?
Wie würde das konkret aussehen? Genau. Also, ich meine, vielleicht sollte ich einen Schritt zurückgehen und den Kontext erläutern, warum ich diese Art von Hüten zum Tragen eingeführt habe, denn, ähm, wenn Menschen heutzutage im Bereich der KI arbeiten, müssen sie sich mit vielen verschiedenen Aspekten davon auseinandersetzen, richtig?
Mm-hmm. Und oft kommt es zu dem Punkt, an dem wir kognitiv überfordert sind, weil wir versuchen, mehrere Ziele gleichzeitig zu erreichen. Und diese könnten in einem Interessenkonflikt stehen, richtig?
Einfach gesagt: Man möchte Compliance-Ziele durchsetzen und erzwingen, aber gleichzeitig auch innovativ sein. Und wenn man beides als dieselbe Person versucht, kann das sehr schwierig sein, und man muss verwalten richtig verwalten , oder? Man versucht, Leitplanken zu identifizieren, aber gleichzeitig auch Chancen zu erkennen, was für eine Person sehr knifflig ist.
Ich stelle diese Hüte also im Grunde genommen als eine Denkweise vor. Wenn Sie gerade einen Hut tragen, dann tragen Sie ihn bewusst, und dann haben Sie ein klares Ziel und verfolgen dieses Ziel, bis Sie diesen Hut abnehmen und den nächsten Hut aufsetzen. Denn in einer anderen Situation müssen Sie vielleicht wieder als eine andere Person handeln oder eine andere Rolle übernehmen, speziell mit diesem Hut auf.
Und so ist der Therapeut für mich das Stereotyp, wenn man merkt, dass es eine Art Widerstand gegen die KI-Transformation gibt, richtig? Mm-hmm. Dass es bestimmte Menschen gibt, die, egal was passiert, KI eigentlich nicht nutzen wollen, weil sie sich bedroht fühlen, vielleicht Angst um ihren Arbeitsplatz haben, richtig?
Ähm, vielleicht glauben sie nicht daran, weil sie wirklich schlechte Erfahrungen mit Halluzinationen gemacht haben, was auch immer der Grund sein mag. Aber manchmal braucht man einfach jemanden, der einem zuhört und wirklich versteht, was man durchmacht, und nicht einfach annimmt, was die eigenen Ängste und Gründe für den Widerstand sind. Wenn man also diese therapeutische Haltung einnimmt, geht man im Grunde genommen mit einer großen Mission hinein, nämlich einfach nur zuzuhören, richtig?
Versuchen Sie zunächst zu verstehen, bevor Sie bereits eine Lösung finden. Aber denken Sie zuerst darüber nach, warum Menschen Widerstand leisten, und identifizieren Sie die Muster, bevor Sie dann einen Plan entwickeln, der entweder im Tool selbst oder in der Kommunikation rund um das Tool liegt, um diesen Widerstand zu verringern, aber zielgerichtet auf der Grundlage dessen, was Sie tatsächlich als Grund für Sie alle kennen. Ja, nein, das macht sehr viel Sinn.
Das macht wirklich Sinn. Nehmen wir das nächste Beispiel. Wie sieht es mit dem Entwickler aus?
Kannst du dich daran erinnern, kannst du den Entwicklerhut aufsetzen? Ja, absolut. Der Entwickler ist natürlich wie der typische technische Experte, der tatsächlich, ähm, eine erste Version eines bestimmten KI-Modells in einer bestimmten Anwendung implementiert, richtig?
Und die Idee ist, dass jemand technisch zeigen muss, dass es machbar ist und welche Funktionalität es haben soll, richtig? Und die erforderlichen Fähigkeiten sind natürlich die technischen Fähigkeiten, wie man es programmiert und wie beispielsweise Maschinelles Lernen , usw. Und das ist wiederum im Grunde genommen ein Unterschied zu allen anderen, denn als Entwickler geht man bereits davon aus, was die Anforderungen sind und wie die Funktionalität aussehen soll.
Und wenn man diesen Kopf hat, geht man einfach in den Flow-Modus und beginnt so schnell wie möglich mit dem Bau des Prototyps, um dann einen Proof of Concept für alle zu haben, richtig? Im Gegensatz dazu, dass man als Entwickler eher ein Zuhörer und Kommunikator ist, erledigt man tatsächlich nur eine bestimmte Aufgabe, damit man diese dann nutzen kann, um sie anderen zu präsentieren und eine Grundlage für Diskussionen mit Stakeholdern zu haben, zum Beispiel. Mm-hmm.
Mm-hmm. Nehmen wir zum Beispiel, ich möchte morgen eine Tasse trinken. Sicher.
Äh, nehmen wir mal den Visionär. Mm-hmm. Was hat es mit dem visionären Kopf auf sich?
Ja, also ist der Visionär im Grunde genommen derjenige, der, ähm, langfristig denkt, richtig? Nicht nur kurzfristig zu denken, sondern darüber nachzudenken, was in Zukunft möglich sein könnte und was beispielsweise für die Organisation das Richtige sein könnte. Richtig?
Und das bedeutet, dass es sich um eine Gruppe von Menschen handeln könnte, die sich tatsächlich zusammensetzt und kontinuierlich darüber brainstormt, wie die Zukunft aussehen könnte. Es könnte ein Rat sein, es könnte ein Lenkungsausschuss oder etwas in der Art sein, richtig? Aber sie können im Grunde genommen darüber nachdenken, wofür das Unternehmen steht oder was die Organisation als Ziel hat, wie das zukünftige Geschäftsmodell aussehen könnte und wie eine KI-gestützte Version davon aussehen könnte, richtig?
Und dann würden sie auch langfristige Ziele und Vorgaben festlegen, oder? Zum Beispiel: Okay, kurzfristig machen wir all das und optimieren unsere Produktivität und nehmen schrittweise Veränderungen vor, aber langfristig wollen wir tatsächlich eine sehr effiziente und effektive Organisation sein, die stark KI-gesteuert ist, aber all diese Möglichkeiten nutzt und weiß, wie wir dort handeln werden. Und das bedeutet auch, dass man Leute braucht, die strategisch denken, richtig?
Und die tatsächlich wissen, wie man mehr über die Zukunft nachdenkt, und die diese Fähigkeit der Vorausschau haben, richtig? Im Grunde genommen darüber nachzudenken, Krankheiten und Trends zu erkennen, und sich dann im Grunde genommen damit zu befassen. Aber auch das steht für mich im Gegensatz dazu, Dinge kurzfristig zu erledigen, richtig?
Wenn Sie also diesen visionären Kopf haben, können Sie nicht gleichzeitig auch darüber nachdenken, wie Sie dieses nächste Modell morgen endlich zum Laufen bringen und zum Leben erwecken können. Aber Sie müssen im Grunde genommen Ihren Modus umschalten, richtig? Okay, lassen wir das jetzt erst einmal hinter uns, und in der nächsten Stunde werde ich ein Visionär sein und über das große Ganze nachdenken.
Das ist also eine der Vorurteile, über die man auch im Voraus nachdenken sollte. Ja. Ja.
Ähm, als Letztes möchte ich auch noch die Fachkompetenz erwähnen, denn das ist etwas, das mir sehr am Herzen liegt, da ich mich in meiner Arbeit im Technologiebereich natürlich sehr intensiv mit Fachkompetenz beschäftige. Können Sie uns also Ihre Fachkenntnisse näher erläutern, damit wir dann auf dieser Grundlage weitermachen können? Selbstverständlich.
Der Fachexperte ist also im Grunde genommen der einzige Gegenpart, der menschliche Gegenpart zu einem KI-Modell, richtig? Denn nur der Fachexperte weiß, was richtig und was falsch ist, im Grunde genommen. Und der Grund, warum es für mich ein menschlicher Gegenpart ist, liegt darin, dass viel Wissen, wie wir wissen, nicht wirklich dokumentiert ist, sondern institutionell und nur in den Köpfen der Menschen und in ihren eigenen Erfahrungen existiert, die sie gemacht haben.
Der Domänenexperte ist also in gewisser Weise der Gatekeeper, der im Grunde beurteilen kann, ob ein KI-Modell oder ein KI-Agent, wie auch immer wir es nennen wollen, die Aufgabe erfüllt, die wir ihm zugedacht haben, und ob es richtig bewertet wird, um ein gutes oder schlechtes Ergebnis zu erzielen. Man braucht diese Domänenkompetenz, aber es reicht nicht aus, sie nur einmalig zu haben, oder? Es ist wichtig, dass mit dem Wachstum des Unternehmens auch diese Fachkompetenz wächst. Man muss diese kontinuierliche Fachkompetenz zusätzlich haben, weshalb ich sie auch eng mit dem menschlichen Aspekt in meinem Kapitel über Kompetenz verbinde, richtig?
Weil man Fachwissen braucht, um tatsächlich im richtigen Moment der richtige Mensch zu sein, um auf dem Laufenden zu sein und Entscheidungen treffen zu können. Die erforderlichen Fähigkeiten und das Fachwissen, das man sich aneignet, stammen also aus dem Geschäftsbereich, in dem man tätig ist, richtig? Wenn Sie ein Experte im Bereich Marketing sind, dann haben Sie natürlich selbst schon viel praktische Marketingarbeit geleistet, wenn Sie eher ein Experte im Bereich Forschung und Entwicklung sind, dann haben Sie selbst in letzter Zeit gute Arbeit geleistet, und so weiter und so fort.
Aber das sind wirklich die Leute , die meiner Meinung nach beurteilen können, ob KI in die richtige Richtung geht oder nicht. Ja, nein, da stimme ich sehr zu. Da stimme ich sehr zu.
Und das reicht weit zurück, nicht wahr? Ich meine, Sie haben Artikel aus den Siebzigern, in denen es um Wissensingenieure geht und um die Rolle, die ein Experte in einem Expertensystem spielt, die guten alten Artikel darüber. Genau.
Ähm, und sogar schon davor war Domänenwissen natürlich ein Forschungsgebiet, das im Grunde genommen schon seit jeher untersucht wurde, aber mm-hmm. Aber ich möchte gerne eine etwas weitergehende Frage stellen. Ich möchte wissen, wie das Feedback aussieht, das Sie von einigen Ihrer Kunden erhalten, wobei Sie diese natürlich nicht namentlich nennen können. Wenn Sie mit einigen Ihrer Kunden zusammenarbeiten, die an KI-Strategien arbeiten, was sind dann deren Absichten?
Was wollen sie erreichen, und was sind die Möglichkeiten, ähm, wie setzt man Ihr Buch ein, um ihnen zu helfen, ihre Herausforderungen zu meistern? Ja. Äh, das ist eine gute Frage.
Ähm, ich würde sagen, und ich bin da vielleicht etwas voreingenommen, weil ich Berater bin, dass meine Kunden, wenn ich mit ihnen spreche, sofort in den Problem-Modus verfallen, richtig? Denn sonst würden sie ja nicht mit uns sprechen, sondern sie wollen ein Problem gelöst haben, richtig? Und das häufigste Problem, das ich sehe, ist, dass sie eigentlich kein klares Ziel haben, richtig?
Denn oft wird dieses Ziel nur dadurch vorangetrieben, dass wir KI machen müssen, weil es alle machen. Aber das allein ist keine Strategie, oder? Nein, nein, nein.
Und so kommt es, dass diese Sache richtig ist, alle anderen machen das auch. Wir könnten unseren Wettbewerbsvorteil verlieren, also versuchen wir es auch, aber wir wissen nicht warum, wie und wo, richtig? Aber wir müssen es tun, sonst könnten unsere Aktionäre unzufrieden sein, weil sie es von uns erwarten, unsere Kunden erwarten es auch von uns, aber wir wissen nicht, wie wir anfangen sollen.
Das ist dann oft der Punkt, an dem wir ansetzen, um diese KI-Strategie zu entwickeln. Und es beginnt tatsächlich mit einer Prozesssicht oder einer organisatorischen Sicht auf die Dinge, richtig? Was ist also überhaupt Ihr übergeordnetes Geschäftsziel und Ihre Geschäftsziele?
Nehmen wir also an, Sie möchten in den nächsten fünf Jahren tatsächlich wachsen, also investieren und verschiedene Unternehmen erwerben, oder möchten Sie profitabler werden? Dann möchten Sie also tatsächlich Kosten senken und Ihre Effizienz steigern, richtig? Oder haben Sie vielleicht andere Ziele?
Und von dort aus können wir dann langsam konkrete Ideen entwickeln, wie KI dieses Ziel jetzt schrittweise unterstützen kann, richtig? Zum Beispiel Produktivitätssteigerungen für bestimmte Personen in der Organisation. Sie bekommen so etwas wie einen KI-Assistenten und erledigen ihre Aufgaben etwas schneller, wodurch sie Zeit sparen. Oder etwas disruptiver, wenn sie dazu in der Lage sind und es auch wollen, richtig?
Stellen Sie sich also einen ganzen Geschäftsprozess vor, den es noch nicht gibt, aber in der neuen Welt könnten wir ihn auf diese Weise mit viel Agentenverhalten von KI-Agenten umsetzen. Und so könnte der völlig neue Geschäftsprozess aussehen. Wie können wir dorthin gelangen?
Richtig? Vielleicht ist das ein Ein- oder Zweijahresplan, und wir müssen uns umstellen und das Veränderungsmanagement in diese Richtung lenken. Aber das ist so ziemlich das Gespräch, das ich normalerweise führe, richtig?
Wir definieren zunächst das Ziel und erstellen dann einen Plan, um dieses Ziel zu erreichen, indem wir einen Zielzustand festlegen, den wir erreichen möchten, und dann im Grunde genommen Schritt für Schritt vorgehen, um das Verkaufsziel zu erreichen. Oh nein, das überrascht mich tatsächlich sehr. Ähm, ich denke, das liegt daran, dass ich bei einem Technologieanbieter arbeite, sodass die Fragen, die wir bekommen, sehr spezifisch sind und sich auf unsere Angebote im Bereich KI beziehen, richtig?
Richtig. Offensichtlich, äh, äh, die Erweiterung und Beschleunigung unserer Roadmap in jeder Dimension der KI, die möglich ist, richtig? Richtig.
Ähm, also die Fragen, die wir bekommen, sind sehr spezifisch. Äh, für mich ist es ziemlich überraschend zu hören, dass, dass, dass die Leute so offen zugeben, dass sie eigentlich gar keine Absichten haben. Ich meine, natürlich macht es Sinn, wenn man es so sagt, aber es ist auch ein wenig schmerzhaft zu hören, dass die Leute tatsächlich, äh, einfach, dass sie so kon... Nun, es macht Sinn, dass sie sich an Berater wenden, weil sie irgendwie eine Strategie brauchen.
Aber, aber, aber, dass du darüber so verwirrt bist, finde ich, äh, nun ja, ehrlich gesagt, ich würde sagen, es ist ein wenig überraschend, aber ich kann es jetzt, wo du es sagst, vollkommen verstehen. Also, ich denke, anstatt sich einfach nur, äh, gestört zu fühlen, gestört in einem so überstrapazierten Begriff, richtig? Ja.
Ich, aber ich denke, die Menschen fühlen sich durch KI gestört. Ähm, aber anstatt, ähm, anstatt, äh, dagegen anzukämpfen, sieht man Verwirrung eher als ein Ergebnis der, äh, der, äh, der Entwicklung der KI. Ich meine, das macht sehr viel Sinn.
Nicht, dass ich dagegen wäre, ja, ich glaube, der Widerstand ist eher eine Kluft innerhalb der Organisationen, richtig? Und es ist in der Regel ein Thema, bei dem die Führungsebene gegen die Mitarbeiter vor Ort steht, das oft auftritt, wenn die Führungskräfte und Entscheidungsträger alle davon überzeugt sind, dass sie KI wirklich implementieren wollen und auch erhebliche Verbesserungen oder irgendwelche Fortschritte erwarten, richtig? Wegen der KI.
Ähm, aber dann gibt es Leute vor Ort, die die Realität kennen und aus vielen verschiedenen Gründen, entweder persönlich oder aus der Sicht von Fachexperten, nicht mit dem Ziel einverstanden sind, dass wir KI jetzt überall einsetzen sollen, wo es möglich ist, weil sie entweder nicht glauben, dass das möglich ist, oder weil sie es für unsinnig halten, das tatsächlich zu tun. Und ich denke, dass hier der Widerstand herkommt. Es geht im Grunde genommen um die Kluft zwischen, ähm, oben und unten, richtig?
Mm. Und damit nicht einverstanden sein. Und auch hier geht es wahrscheinlich eher um Beratung, mit einem starken Fokus darauf, aber, ähm, beim Change Management hoffen sie dann, dass eine externe Beratungsfirma sich einfach darum kümmern kann, richtig?
Ähm-hm. Führungskräfte wollen nicht schlecht dastehen, weil sie eine Veränderung erzwungen haben, sondern holen sich lieber eine Beratungsfirma ins Haus, damit diese die Rolle des Bösewichts übernimmt und die Veränderung durchsetzt. Aber das funktioniert nicht, oder?
Veränderungen müssen von innen kommen. Wir können immer helfen und sie erleichtern. Ähm, aber wir sind nicht diejenigen , die einer anderen Organisation eine Veränderung aufzwingen können , im Grunde genommen.
Ja, nein, auf jeden Fall. Aber ich sehe ThoughtWorks auch irgendwie für sich genommen, verstehen Sie? Als ein hoch entwickeltes Beratungsunternehmen, richtig?
Mm-hmm. Es handelt sich nicht um eine Standardberatung, wie man sie sonst so findet, es sind keine allgemeinen Ratschläge, richtig? Sie fügen Technologien hinzu, was den Unterschied ausmacht.
Aber wie überbrückt man das? Was, wie überbrückt man das dann? Jenka?
Ich meine, offensichtlich sind diese Interessenkonflikte ziemlich offensichtlich, sie sind sowohl sehr explizit als auch mm-hmm. Ich denke auch, dass sie ziemlich feststehen, oder? Das ist nichts, was man auf die leichte Schulter nimmt.
Ich habe oft das Gefühl, dass Führungsteams KI implementieren wollen. Sie wollen KI-first sein, richtig? Ja.
Und ich könnte mir vorstellen, dass in vielen Unternehmen die Leute sich diesem Ehrgeiz ziemlich heftig widersetzen würden, genau wie Sie sagen. Absolut. Richtig?
Ja. Also, wie konkret nutzen Sie die Nuggets in Ihrem Buch und in Ihrer Arbeitsweise, um diese Hürde zu überwinden? Ja.
Ich meine, ganz konkret, ähm, im Kommunikationsbereich meines Framework, richtig? Mm-hmm. Ich habe einen eigenen Teil, um den Wert von KI zu formulieren, richtig?
Mm-hmm. Und ich denke, das ist einer der wichtigsten Punkte, denn es sind nicht nur die expliziten Dinge, die zählen, oder? Zu sagen, dass wir mit KI von nun an alle um 30 % produktiver sein werden.
Und das allein ist schon eine wirklich kühne Aussage gegenüber allen Mitarbeitern vor Ort, von denen nun erwartet wird, dass sie es nutzen. Aber sie, die Menschen, die viele Umstrukturierungen durchgemacht haben und von Entlassungen hören, denken sofort: Oh, oh, bedeutet das, dass wir tatsächlich 30 % der Mitarbeiter verlieren? Ist mein Arbeitsplatz noch sicher?
Richtig? Und selbst wenn das nicht laut ausgesprochen wurde, dass wir Leute entlassen werden, indem wir potenzielle Entlassungen nicht einmal ansprechen oder nicht, wird es zu einer Annahme der Leute vor Ort. Und das führt sofort zu Widerstand, richtig?
Warum sollte ich also etwas unterstützen, das meinen Arbeitsplatz gefährden könnte? Und deshalb halte ich Kommunikation für so wichtig. Wenn man den Wert von KI hervorheben möchte, sollte man nicht nur die positiven Aspekte betonen, sondern auch versuchen, die negativen Assoziationen oder Erwartungen, die Menschen möglicherweise haben, abzubauen und proaktiv darauf einzugehen.
Wenn Sie sagen, dass wir produktiv sein werden, dass wir keine Mitarbeiter entlassen werden oder dass wir möglicherweise Mitarbeiter entlassen werden, aber nur so viele, wie nötig, richtig? Seien Sie etwas entschlossener, damit zumindest klare Erwartungen darüber bestehen, was dann passiert. Und selbst wenn Sie sagen, dass Sie Leute entlassen wollen, gibt es eine andere Sichtweise darauf, oder?
Man könnte sagen, dass sich die Jobs, die wir alle derzeit haben, weiterentwickeln werden und dass die Aufgaben durch KI ersetzt werden, aber das bedeutet, dass sich die Jobs ändern müssen und wir alle auf diese Migration vorbereiten müssen. Das bedeutet aber auch, dass jeder bereit sein muss, seine Fähigkeiten zu ändern und sich zu den Neurowissenschaftlern zu entwickeln, die wir haben. Das ist auch eine Aussage an sich.
Ich denke, hier kann Widerstand stark reduziert werden, indem man einfach mehr kommuniziert – ehrlich, klar und bewusst. Proaktiv. Ja.
Nein, nein, da stimme ich voll und ganz zu. Kommen wir zu den technischen Details. Außerdem habe ich mir überlegt, ob das nicht auch im Kapitel über Kommunikation steht, dass Sie im Kapitel über Kreativität die Rolle von Metadaten diskutieren, ähm... Metadaten
Und wie Sie trainiert haben, wo, wo ist das, Das steht im Kapitel über Kommunikation, Das steht auch im Com und das ist eine Ergänzung zur Kommunikation. Denn das hatten Sie im ersten, äh, im ersten Buch nicht, oder? Richtig.
Richtig. Ähm, also, können wir das ein wenig näher erläutern? Was, was ist, was ist der, was ist der, wie soll ich sagen, der technische Aspekt des C im Fünf-C-Modell?
Ja, absolut. Also, ich meine, der Grund, warum ich das angesprochen habe, ist, dass wir erwarten, dass generative AI , und sagen wir mal Chatbots oder jede Art von KI-Assistenz uns dabei helfen, indem sie, ähm, im Grunde genommen alle Daten und den Kontext richtig einordnen, oder? Und uns die richtigen Ergebnisse liefern, wenn wir danach fragen, richtig?
Mm-hmm. Also ist Conversational BI das Trendboard, das wir derzeit haben, richtig? Aber das bedeutet auch, dass es genau weiß, ähm, welche Metrik ich verlange und wo genau diese Metrik zu finden ist, um sie mir auch anzuzeigen.
Mm-hmm. Und hier wird es schwierig, wenn wir an Organisationen und verschiedene Abteilungen denken, die unterschiedliche Kontextinformationen dazu haben, richtig? Wenn man sich in der Regel nicht auf Dinge geeinigt hat, sprechen wir alle über dieselben Kennzahlen, aber wir haben unterschiedliche Definitionen im Kopf, oder wir meinen tatsächlich dieselbe Kennzahl, aber wir nennen sie unterschiedlich.
All diese Dinge sind in der Regel die Faktoren, die für solche Bemühungen tatsächlich entscheidend sind. Ich möchte also sagen, dass ich zustimme, dass Semantik wichtig ist und Metadaten wichtig Metadaten , und dass es im Grunde genommen wichtig ist, Ontologien zu erstellen, um den direkten Kontext dafür zu belegen, dass es zunächst einmal auf einer Übereinstimmung der Menschen in diesen Fragen beruht, richtig? Denn wenn wir als Menschen uns immer noch widersprechen und das Problem nicht gelöst haben, sollten wir uns nicht wundern, wenn auch die KI davon verwirrt ist, denn wir sind als Organisation selbst verwirrt darüber, oder?
Der springende Punkt dabei ist also, dass wir uns so sehr darauf konzentrieren können, wie wir wollen, aber es beginnt damit, dass wir miteinander ins Gespräch kommen, denn wir können es uns nicht leisten, dass KI die Verwirrung und Widersprüche verstärkt, die wir als Menschen in unserem institutionellen Wissen und in unserer Kommunikation haben. Ja. Oh ja.
Da stimme ich voll und ganz zu. Ähm, und wir arbeiten mit Führungskräften zusammen, die, ähm, ich finde diese Architektur sehr interessant, oder? Denn man kann tatsächlich ziemlich schnell und ziemlich konkret vorankommen, ähm, gerade jetzt mit KI, genau für diese Sonderfälle.
Ähm, also, wenn ich, wenn ich, ich, ich würde gerne wissen, es ist eine große Frage, aber wie, wie, mm-hmm. Ich hoffe, Sie können mir eine Antwort geben. Okay.
Kein Druck. Kein Druck. Aber wie würde Ihre ideale Zukunft für Unternehmen aussehen, beispielsweise in Bezug auf KI?
Was, was ist, jetzt, wo wir diese Superkräfte haben, vielleicht eine große Aufgabe, oder? Mm-hmm. Aber jetzt, wo wir KI haben und sie gestalten können, und wir sie bewusst einsetzen können und nicht nur Empfänger der Auswirkungen der KI sind, sondern sie tatsächlich nutzen können.
Also, wie würden Sie, aus strategischer Sicht, Ihre Vision davon beschreiben, wie Unternehmen in Zukunft mit KI arbeiten werden? Richtig. Ich meine, wenn ich es in einem einfacheren Satz zusammenfassen würde, wäre es, ähm, wo wir einen ausgewogenen, ähm, Ansatz und ein Betriebsmodell haben, bei dem, ähm, Menschen und KI auf ausgewogene Weise zusammenarbeiten, um die Ziele einer Organisation tatsächlich effektiv und effizient zu erreichen.
Und das bedeutet auch, dass wir wissen, welche Aufgaben Menschen übertragen werden sollen, und dass sie ihnen aus einem bestimmten Grund übertragen werden. Und dass wir auch die Grenzen und Möglichkeiten der KI kennen. Und wir geben ihnen eindeutig eine Aufgabe KI erledigen kann, und wir geben ihnen keine Aufgaben, die wir ihnen nicht übertragen sollten, die für die Schüler möglicherweise über Leben und Tod entscheiden könnten.
Das stimmt, richtig. Auf sehr gesättigte Weise landen. Das alles geht also mit diesem Verständnis und dieser Reflexion einher, fast als Ganzes dessen, was nur menschliche Aufgaben sein werden.
Und wir beschränken uns auf Menschen, und wir haben genau die richtigen Leute, um diese Aufgaben zu erfüllen. Und wenn wir in Zukunft KI-Agenten oder KI-Anwendungen haben, den notwendigen Kontext und die notwendigen Voraussetzungen, um ihre Aufgaben zu erfüllen, Dinge zu automatisieren und auf die bestmögliche Weise zu helfen. Aber der Grund, warum ich denke, dass das noch ein paar Jahre dauern wird, ist, dass wir uns alle in einer Experimentierphase befinden, richtig?
Ich glaube nicht, dass irgendjemand sich sicher genug fühlt, um genau zu wissen, was alle menschlichen Aufgaben und alle KI-Aufgaben sein sollen. Das entwickelt sich auch im Laufe der Zeit weiter. Aber wir alle tasten uns doch ständig vor, oder?
Sollte das automatisiert werden? Sollte das eine KI-Sache werden? Vielleicht nicht.
Und dann bewegen wir uns alle nur hin und her. Ich denke, es wird auch für die Menschheit eine Weile dauern, bis sie irgendwann tatsächlich diesen Mittelweg findet. Ja.
Ja. Auf jeden Fall. Auf jeden Fall.
Eines der Dinge, die ich sehe, ähm, die ich als Potenzial sehe, wiederum etwas näher auf die Besonderheiten einer IT-Landschaft eingehend, ist, dass, dass, ähm, also Anwendungen, die wir haben, wir alle haben, jedes Unternehmen hat eine Menge Anwendungen, richtig? Und ich sehe, ich sehe zwei Perspektiven. Ich sehe eine Perspektive, in der, ähm, die Anzahl der Anwendungen aufgrund von KI erheblich zunehmen wird.
Mm-hmm. Weil man damit ganz einfach Anwendungen erstellen kann. Ja.
Aber sie werden entstehen und vielleicht auch wieder ganz leicht verschwinden, äh, wieder, richtig. Äh, weil man sie nicht braucht. Ich denke also, wir bewegen uns weg von diesem großen Paradigma, das sich als Software as a Service erneuert, hin zu mm-hmm.
Ganz im Gegenteil, eine Software. Wenn wir also etwas tun müssen, können wir ein technologisches, äh, Softwarepaket erstellen, wenn Sie so wollen, um diese Aktion auszuführen, und dann können wir es wieder zurückziehen, wenn wir es nicht mehr brauchen. Ich sehe also eine viel dynamischere IT-Landschaft, eine viel, äh, sich verändernde IT-Landschaft in Unternehmen.
Ich hoffe, wir werden genauso gut darin, äh, äh, wie wir darin sind, Anwendungen zu erstellen , auch Anwendungen aus dem Verkehr zu ziehen. Das ist mir sehr wichtig. Ja.
Ich glaube, da herrscht ziemliches Chaos. Und ich bin mir sicher, dass Metadaten in Technologien viel einfacher werden wird. Wenn wir uns beispielsweise ansehen, wie wir Datentechnologiedaten tatsächlich beschreiben können, aber auch auf der anderen Seite nach Daten suchen und Daten erkunden, wird das einfacher werden.
Aber die gesamte Metadaten wird meiner Meinung nach viel komplizierter sein, weil wir eine enorme Anzahl von Anwendungen haben werden, die sehr kritische Daten enthalten, und das alles wird sehr dynamisch sein. Also, ich sehe eine Zukunft, aber die ist wiederum sehr stark an die Technologie gebunden, richtig? Äh, richtig.
Du, ich, ich, ich mag wirklich, was du sagst. Äh, das kann ich mir auch gut vorstellen. Aber ich habe auch das Gefühl, dass es da vielleicht einen Berührungspunkt zu Innovationen im Allgemeinen in der Vergangenheit gibt, oder?
Weil es einen Unterschied zwischen Experimentiermodi und dem laufenden und Produktionsmodus gibt, richtig? Und wir alle wissen, dass man, wenn man scheitert, Dinge testet, aber man nutzt es dort noch nicht für die breitere Nutzer , aus einem bestimmten Grund, weil es immer noch so ist wie: bauen, testen und iterieren, richtig? Und irgendwann sagt man sich: Okay, jetzt wollen wir es der Partei geben.
Wir haben ein MVP, richtig? Wir wollen es nun der wichtigsten Nutzer geben, die wir haben wollen, und die wird es auch nutzen. Und auf dieser Grundlage werden wir in einem agilen Prozess erneut iterieren.
Und irgendwo dazwischen muss eine Entscheidung getroffen werden, wie die Dokumentation aussehen soll und wie viel davon in die übrige Architektur integriert wird, die wir auch in einer Organisation haben, richtig? Denn ich würde argumentieren, insbesondere in Bezug auf Ihren Punkt, dass wir mit KI jetzt so viel schneller experimentieren, entwickeln und Prototypen erstellen können, aber nicht alle Prototypen müssen sofort, äh, gekennzeichnet und dokumentiert und in unserem Metadaten bekannt sein, oder? Mm-hmm.
Und vielleicht muss es einen klar definierten Schwellenwert geben, ab dem wir alle entscheiden, dass dieses Modell nun etwas länger bleibt als alle anderen Prototypen, die wir in der Vergangenheit hatten.
Und nur dieser Teil muss dann eine Art Checkliste oder Qualitätsprüfung durchlaufen, wie auch immer man es nennen mag, um dann tatsächlich zu diesem Teil zu werden, richtig? Das bedeutet, dass wir zum Schwerpunkt unseres Webinars zurückkehren müssen, nämlich dass wir als Menschen dann entscheiden müssen, was die richtigen Kriterien sind, um zu beurteilen, was für die Produktion bereit ist und was noch im Versuchsstadium ist. Denn diese Grenze ist in Zeiten der KI sehr schmal.
Wir müssen also grundsätzlich klar, aber auch flexibel sein, um zu sehen, wie wir das vorantreiben können. Ja. Ich meine, zumindest sehe ich das so. Es ist so, wie der Titel Ihres Buches lautet: „Humanizing AI Strategy”.
Mm-hmm. Und ich sehe so viele, ich sehe so viele Menschen in Unternehmen, die sich nur auf der Defensive gegenüber der KI befinden, wie die Entwickler sagen, die Entwickler sagen, naja, sie wird für mich programmieren. Ich werde nicht, neue Entwickler werden nicht einsteigen, weil sie für mich programmieren wird.
Und so wie das Marketing sagt: „Wir müssen kein Marketing betreiben, denn es wird Marketing für uns betreiben.“ Viele Leute sind irgendwie defensiv, ähm, ja.
Äh, Gemütszustand, was nicht falsch ist. Ich kann das verstehen und ich spüre es definitiv. Ich bin mir sicher, dass Sie das auch spüren, dass Sie sich als Autor fragen müssen, ob es eine Rolle für jemanden wie mich geben wird, jemanden, der Bücher schreibt und Meinungen zu Dingen hat und diese schriftlich festhält.
Das frage ich mich auch ab und zu. Ich denke, ich habe noch mindestens ein paar Bücher zu schreiben, bevor alles explodiert. Aber, äh, aber, äh, nur ein ganz leiser Countdown in deinem Kopf.
Ich verstehe. Ja. Ja, genau.
Äh, richtig. Aber wenn wir KI ernst nehmen, dann befinden wir uns meiner Meinung nach in einer Situation, in der wir uns fragen müssen: Was wollen wir mit KI erreichen? Welche Fähigkeiten wir damit ausführen?
Wie wollen wir damit arbeiten? Und so sehe ich es, wie man eine KI-Strategie menschlicher gestalten könnte. Ähm, vielleicht ist es in Bezug auf Ihr Buch ein wenig auf den Kopf gestellt.
Ähm, aber, äh, nein, eigentlich glaube ich das nicht. Ich denke, das ist so ziemlich das, was ich als Grenze bezeichnen würde, um zu sagen, dass das eine Perspektive ist, die in Ihrem Buch behandelt wird, richtig? Äh, auf jeden Fall.
Ich stimme vollkommen zu. Vielleicht möchte ich noch hinzufügen, dass dies nicht nur für Autoren, sondern auch für Musiker gilt, oder? Mm-hmm.
Natürlich denke ich auch viel darüber nach, wie KI-generierte Musik mit von Menschen komponierter Originalmusik konkurriert, nicht wahr? Und es ist wirklich so, dass selbst jetzt, wenn man sich KI-Musiktools ansieht, immer noch das Gefühl hat, dass ihnen etwas fehlt, nämlich ihre Seele. Ich weiß, das klingt sehr subjektiv, aber aus irgendeinem Grund habe ich das Gefühl, dass sie, obwohl sie der von Menschen gemachten Musik sehr nahe kommt, ein bisschen zu perfekt ist, oder?
Mm-hmm. Und mir ist klar, dass es gerade die von Menschen gemachten Unvollkommenheiten sind, die die Musik überhaupt erst so authentisch klingen lassen, richtig? Denn wenn man echte Musik hat, dann singen alle perfekten Noten, alle Stimmen genau die Noten, die man singen wollte.
Der Rhythmus ist immer mathematisch perfekt, klar unterteilt, äh, unterteilt. Aber wenn man sich eine Aufzeichnung Rolling Stones Aufzeichnung der Vergangenheit anhört, hat sie nicht dieselbe Geschwindigkeit wie die vorherige, zum Beispiel gibt es hier und da ein paar falsche Noten auf der Gitarre, die wir einfach in die Aufzeichnung übernommen Aufzeichnung . Aber das ist Teil des Flairs, oder?
Von menschlich geschaffener Musik. Ich hoffe also, dass diese Analogie verdeutlicht, dass menschliche Originalität natürlich nach wie vor ihren Platz hat, oder? Und dystopisch betrachtet bedeutet das: Wenn wir alle kreative Arbeit einstellen und die gesamte Kreativität nur noch aus KI-Generierung stammt, bleibt KI-Modellen nichts anderes übrig, als wieder aus KI-generierten Inhalten zu lernen.
Und wir alle wissen, dass rekursives Training auch zu einer Verschlechterung der Qualität Training , nicht wahr? Ja, das macht die menschliche Kreativität umso wichtiger, denn sonst wird uns die KI ohnehin nicht weiterhelfen. Das ist zumindest meine Hoffnung, die optimistische Sichtweise, dass menschliche Kreativität und Originalität nach wie vor sehr wichtig sind, denn sonst besteht auch das Risiko, dass eine KI in Zukunft nicht mehr funktioniert.
Ja, in der Tat. Nein, nein, ich sehe, äh, ich sehe viele Herausforderungen vor uns, aber ich sehe auch viele spannende Möglichkeiten. Ja, es wird eine Neukonfiguration vieler, äh, Positionen erfordern.
Mm-hmm. Aber ich habe gesehen, ich habe Dinge gesehen, mit denen ich nicht einverstanden bin. Und ich kann Ihnen ein paar Beispiele nennen.
Beispiel: Auf Substack verbringe ich immer mehr Zeit, und ich habe gesehen, dass jemand etwas gepostet hat, das ein Zitat von Bill Gates war, aber es war falsch. Es war ein Zitat, in dem Bill Gates gesagt haben soll, dass KI Ärzte und Lehrer überflüssig machen würde, aber er hat tatsächlich einen Podcast namens „Un Confuse Me”, in dem er schon sehr früh genau das Gegenteil gesagt hat. Das Zitat war also keine Interpretation eines Journalisten, der etwas auf eine Weise betont hat, die eindeutig nicht richtig war.
Was, äh, die Absicht dessen, was Bill Gates gesagt hatte. Im Grunde genommen sagte er ganz am Anfang des Gesprächs mit dem Technikgenie, dessen Namen ich vergessen habe, dass wir eine Erweiterung erleben werden. Ja, genau.
Die Welt, die Welt hat nicht genug Ärzte. Die Welt hat nicht genug Lehrer. Ja.
Lehrer und Ärzte werden also nicht verschwinden. Wir brauchen jeden einzelnen von ihnen, aber vielleicht, vielleicht können wir untersuchen, ob wir ihre Kräfte erweitern können, um einen größeren Teil der Menschheit zu erreichen. Wäre das nicht schön?
Und ich denke, das ist die Art von Gespräch, ja. Und das ist, glaube ich, die Art von Gespräch, die wir führen müssen. Ganz konkret werden sich die Menschen natürlich in einer Situation wiederfinden, in der sie befürchten: Oh, wird das von der KI übernommen werden?
Und ich denke, wir sollten das alle respektieren, aber die Bedürfnisse der Menschheit im Allgemeinen und auch in ganz bestimmten Gemeinschaften und Gesellschaften sind größer als das Angebot. Und genau hier hat KI eine fantastische Welt zu bieten. Richtig?
Auf jeden Fall.
Da stimme ich Ihnen vollkommen zu. Ich meine, wenn wir uns selbst als Patienten von Ärzten betrachten, zum Beispiel, richtig? Und ich hatte dieses, äh, Gedankenexperiment vor ein paar Tagen.
Wenn ich die Wahl hätte zwischen einem menschlichen Arzt und einem Roboterarzt, richtig? Oder einem Arzt mit Zugang zu einer KI-Anwendung, würde ich mich definitiv für den Arzt mit der KI-Anwendung entscheiden, weil das das Beste aus beiden Welten ist, richtig? Denn ich fände es seltsam, wenn ein Roboter über Leben und Tod entscheiden würde, richtig?
Das ist für mich ethisch und technologisch gesehen einfach seltsam. Ähm, außerdem ist ein Arzt, der nicht über die aktuellsten Informationen verfügt und sich vielleicht nur auf sein Bauchgefühl und veraltete Informationen verlässt, immer ein Risiko, das einfach menschlich ist, ähm, Verhalten. Aber jemand, der grundsätzlich mit der aktuellen Welt verbunden ist, kann mit Technologie umgehen und hat auf die richtige Weise Zugang zu Informationen.
Das klingt für mich nach etwas Gutem. Also, äh, mir gefällt, was Sie gesagt haben, richtig? Es ist eine Erweiterung, richtig?
Es geht nicht darum, etwas zu ersetzen, sondern vielmehr darum, die guten Dinge, die Menschen tun können, zu ergänzen und zu verstärken. Und hoffentlich ist das, wie ich es nenne, eine realistische, optimistische Sichtweise auf die Dinge, oder? Nicht nur Optimismus zu propagieren, sondern realistisch optimistisch zu sein und daran zu glauben, dass dort, wo sie sind, gute Dinge geschehen werden.
Ja. Ja. Es ist, es ist, es ist so, dass jede einzelne technologische Entwicklung, äh, mit Hindernissen verbunden ist.
Es ist unvermeidlich, dass Absolut. Dass die Menschen sich bedroht fühlen und, und, und, und ich muss noch einmal betonen, dass wir das alle respektieren sollten. Äh, es ist, es ist, äh, es ist zwar, äh, aber ich denke, dass das Potenzial, das positive Potenzial dieser Technologie, äh, dass es sich durchsetzen wird.
Und ich denke, es ist unsere Pflicht, das zu formulieren und tatsächlich proaktiv zu sein. Ich gehe das mit einem Software-Ansatz an. Ja.
Also, meine, meine, meine Art, darüber nachzudenken, ist, dass wir viel dynamischer werden können. Als gäbe es nichts mehr in einem Unternehmensumfeld, als es gibt. Also, äh, es ist so, so schwierig, zu verändern, zu verwalten, sogar zu entdecken und dann verwalten eine IT-Landschaft eines Unternehmens zu verändern, sagen wir mit mehr als ein paar Jahrzehnten.
Äh, das ist eine Disziplin für sich. Vielleicht, vielleicht werden wir mehr Flexibilität sehen, äh, ja. In der Unternehmenslandschaft, äh, wegen der KI, richtig?
Ich, ich neige dazu zu denken, dass das eine sehr, sehr schöne Sache wäre. Aber das ist im Moment offensichtlich etwas, das in Zukunft etwas weit hergeholt ist. Ja.
Aber Sie können bereits, wie Sie gesehen haben, Ich weiß nicht, ob Sie zum Beispiel die Veröffentlichung von 5.0 gesehen haben, aber es gab eine Demo kleinen Sprach-App, einer App zum Sprachenlernen, mit der man Quizze und Multiple-Choice-Tests erstellen kann, und die ist jetzt schon ziemlich ausgereift. Ich glaube also nicht, dass es noch 10 Jahre dauern wird, bis wir Unternehmensanwendungen sehen, die verschiedene Aufgaben ausführen können. Ich glaube nicht, dass es 10 Jahre dauern wird, bis wir Unternehmensanwendungen sehen, die für verschiedene Aufgaben hoch- und runtergefahren werden können.
Und ich denke, absolut. Ich denke, das passt sowieso, ich denke, das passt ganz gut zu, äh, zu meinem Datenmanagement. Und, äh, wie auch immer, das ist nur mein Geschwätz.
Ich hätte Ihnen Fragen stellen sollen. Nein, auf keinen Fall. Ich möchte nur noch etwas hinzufügen: Ich denke, was mir persönlich die KI in diesem Jahr geholfen hat, ist, dass ich mich viel besser anpassen kann, an, ähm, im Grunde genommen alle Situationen, in denen ich mich befinde, richtig?
Weil es so einfach ist, Dinge zu lernen und Wissen zu erwerben, Wissenslücken zu schließen und Dinge nachzuschlagen, und zwar auf eine maßgeschneiderte Weise, die mir gefällt, hat es mein Lernen in diesem Jahr meiner Meinung nach enorm beschleunigt. Aber zusätzlich zum bloßen Lesen von Texten kann ich jetzt auch Fragen mit Kontext stellen und die richtigen Quellen für mich einfügen, um mir spezifische Fragen zu beantworten, und ich habe das Gefühl, dass mein Kopf super glücklich darüber ist, heutzutage so viel Wissen verdauen und verarbeiten zu können. Und zu Ihrem Punkt: Wenn wir eine Organisation haben, deren Landschaft elastisch ist, dann denke ich, dass das menschliche Gehirn und das menschliche Wissen intuitiver und auch auf die Menschen zugeschnitten sein werden, was die Menschen in ihrem Verhalten und ihrer Denkweise in Zukunft elastischer macht, oder? Das geht also Hand in Hand, und das gefällt mir sehr gut, oder?
Wenn wir dazu in der Lage sind, werden wir alle flexibler und agiler und können Ziele tatsächlich auf eine viel anpassungsfähigere Weise erreichen. Ja. Ja.
Ja. Auf jeden Fall. Okay.
Also ich denke, wir werden langsam damit beginnen, das Gespräch zu beenden. Wenn es Fragen aus dem Publikum gibt, ist jetzt der richtige Zeitpunkt, die Hand zu heben und zu fragen, okay? Wir haben vergessen, das am Anfang zu erwähnen, nicht wahr?
Aber wir haben eine besondere Überraschung für alle, die Fragen stellen werden. Ähm, es gibt ein signiertes Exemplar des Buches, das an einen glücklichen Gewinner verschickt wird, der im Grunde genommen nach dem Webinar ermittelt wird. Also, jeder kann gerne Fragen stellen, und wir werden einen von Ihnen auswählen, der ein signiertes Exemplar meines Buches erhält, das natürlich von mir persönlich signiert ist.
Und wenn, äh, wir können auch Fragen entgegennehmen. Oh, da haben wir es schon. Äh, hallo, Ty.
Schön, dich zu sehen. Ja. Oh, ihr kennt euch also auch.
Ja, natürlich. Ja. Ja.
Fantastisch. Fantastisch. Großartig.
Ähm, also, das war nur eine kurze Begrüßung, aber Sie können gerne auch eine Frage stellen, wenn Sie eine haben. Und wenn nicht, können wir Fragen auch später per E-Mail entgegennehmen, Sie können mich also über LinkedIn kontaktieren. Ich denke, wir sollten es vielleicht so machen, Chanka.
Ja, klar. Klingt gut. Ähm, ja, warten wir ein, zwei Minuten, aber, äh, okay.
Also, ähm, im Grunde genommen, äh, das war's. Äh, ja, wer wir werden, äh, werden wir in Zukunft auch Anreize für KI-Agenten haben? Oh, tolle Frage, möchtest du die beantworten?
Ja, ich versuche es mal. Ähm, also würde ein zentraler KI-Agent bedeuten, dass KI-Agenten für bestimmte Handlungen belohnt werden, richtig? In gewisser Weise habe ich aber das Gefühl, dass KI oft schon so funktioniert, oder?
Wenn wir über bestärkendes Lernen nachdenken, richtig? Dann belohnt man es im Grunde genommen für die richtigen Dinge und bestraft es bereits für die schlechten Dinge. Ich habe also das Gefühl, dass dies technisch gesehen bereits geschieht , denn dies ist der Mechanismus, der dahintersteckt , vielleicht in einem eher philosophischen Sinne, richtig?
Ähm, die Frage ist, ob KI-Agenten Anreize tatsächlich als zusätzliche Motivation sehen, noch besser zu werden, als sie es bereits sind, was eine sehr interessante Entscheidung sein könnte. Ähm, denn ich meine, in dem einen Artikel, den ich tatsächlich darüber gelesen habe, äh, von Anthropic, ähm, wo sie im Grunde genommen KI-Agenten in ein Szenario versetzt haben, in dem sie um ihr Überleben kämpfen mussten, haben sie offenbar angefangen, Menschen zu belügen und auch zu erpressen, richtig? Es ist also interessant, dass der Überlebensmechanismus des Menschen im Grunde genommen auf ein LLM übertragen wurde, um sich so zu verhalten.
Das wirft eine Menge Grauzonen auf, denn wenn sie sich unter Zwang so verhalten können, was passiert dann, wenn man ihnen Anreize bietet? Werden sie dann tatsächlich besser? Ich habe keine Antwort darauf, wie es sein könnte, und ehrlich gesagt finde ich den Gedanken daran ein wenig beängstigend.
Ähm, vielleicht ist es an der Zeit, das an dich weiterzugeben, Ola, was denkst du darüber? Nun, ich denke, ich denke, ähm, die Verwaltung der Angen-Architektur ist etwas, das offensichtlich ähm menschliche Kuration erfordert. Ich persönlich habe keine Angst vor dystopischen Szenarien, in denen Agenten ähm sich gegenseitig und die Menschheit angreifen, und wir sehen künstliche Intelligenz, ähm, eingebaut in ähm Roboter und andere Maschinen, die die Menschheit kontrollieren.
Ich, ich bin, ich bin nicht so, dass alles mit Strom läuft. Man kann immer das Kabel ziehen. Ich habe keine große Angst davor.
Das ist ein guter Punkt. Ähm, aber es gibt auch bestimmte, ähm, spezifische Agenten, äh, die damit beauftragt werden, äh, verwalten Agenten zu verwalten , äh, genau um diese Art von Verhalten zu überwachen. Also ich denke, ich sehe das nicht als Problem, aber ich gebe zu, dass es eine gute Frage ist.
Ja. Also, ähm, wir haben noch eine Frage, äh, von, oder Jane, mm-hmm. Vielleicht kann ich sie vorlesen und Sie können sie dann beantworten.
Sicher. Hallo, tolles Webinar. In Anbetracht der menschlichen Seite der KI bin ich besorgt über die mangelnde Durchsetzung bestimmter Richtlinien und Leitlinien für die Nutzung von KI, wenn ich an Isaac Asimovs Robotergesetze denke.
Mm. Ich denke, wir liegen hier ziemlich zurück, und daher fühlt sich die Menschheit bedroht, ich könnte Ihre Meinung dazu teilen. Kann man.
Das ist eine großartige Frage und eine sehr tiefgründige. Äh, ich denke, vielleicht nur aus Sicht der Governance, richtig? Aus Sicht der KI-Governance ist die Erfahrung, ähm, sogar schon in Data Governance, dass diese Richtlinien und Leitlinien, wie man sich verhalten soll und was man nicht tun soll, normalerweise nur dann durchgesetzt werden, wenn tatsächlich etwas Schlimmes passiert, richtig?
Und entweder wird es durch eine Vorschrift geregelt, die ohnehin verbindlich ist, sodass man sonst mit einer Geldstrafe rechnen muss, ins Gefängnis kommt oder sich in eine Art Shitstorm mit Kunden hineinmanövriert, richtig? Aber ansonsten schaut man sich das immer an, wenn etwas Schlimmes passiert und man es dann ein zweites Mal vermeiden will. Und jetzt ist es dieser interessante Punkt, an dem es nicht so ist, dass wir uns noch nicht so lange mit KI beschäftigt haben wie mit anderen Technologien in dem Ausmaß, wie wir es derzeit tun.
Also, ähm, ich verstehe, dass wir alle Angst haben, aber es ist noch nichts Großes und Böses oder Schlimmes passiert , dass diese Regeln proaktiv erstellt werden , um tatsächlich durchgesetzt zu werden. In gewisser Weise denke ich, dass je mehr sie jetzt angewendet werden , desto mehr schlimme Dinge passieren werden. Und im Idealfall werden diese Richtlinien und Regeln und Maßnahmen dann erstellt, bevor es viel größer und in großem Maßstab wird.
Ähm, und nachdem ich das gesagt habe, denke ich, dass Vorschriften in dieser Hinsicht auch eine Chance sind, oder? Denn sie sollen uns ja auch auf die richtige Seite der Geschichte bringen. Und ich bin lieber auf der sicheren Seite, als es später zu bereuen.
Und einige Aspekte, insbesondere wenn es darum geht, Entscheidungen über Menschenleben zu treffen, nicht wahr? Es ist also niemals eine schlechte Sache, diese Aspekte in Organisationen als Mittel zu nutzen, um diese Richtlinien voranzutreiben. Und man kann dann darauf aufbauen und vielleicht sogar die Dynamik der Compliance nutzen, um diese Richtlinien dann auch tatsächlich umzusetzen.
Und Kai, wir werden geschlossen sein, äh, äh, im Stundenladen. Es gibt noch eine weitere Frage, aber wir, ich habe einen Screenshot gemacht und du kannst Okay. Du kannst, du kannst, du kannst die Lotterie, ähm, danach machen.
Äh, und äh, es war mir eine Freude, Sie bei John Kai zu haben, äh, bei diesem Webinar „Data Explore“, bei dem es absolut nicht um Maßnahmen geht, sondern um großartige Autoren, Denker und Praktiker aus der Daten- und KI-Community. Vielen Dank, dass Sie sich die Zeit genommen haben, vielen Dank für die Einladung. Es war mir eine große Freude.
Bleib dran, bleib in Kontakt. Ähm, mach's gut.