
Digitale Wissensbissen
Welche Technologie kann meinen Geschäftsprozessen auf die Sprünge helfen? Ist generative KI schon reif für den Unternehmenseinsatz? Wie kommt meine Applikation in die "Cloud" und was habe ich davon?
Diese und weitere Fragen am Schnittpunkt von Business und Tech beantworten wir im Podcast "Digitale Wissensbissen"!
Digitale Wissensbissen
Geht KI langfristig an Inzucht zugrunde?
Originalität, Kreativität - diese Konzepte sind Teil dessen, was uns zu Menschen macht. Kann KI – die ja immer menschenähnlicher wird – auch kreativ und originell sein? Was bedeutet es für uns, wenn wir uns das Verfassen von Texten von KI abnehmen lassen?
In dieser Episode streifen wir ein paar eher philosophische Fragen, die aus unserer Sicht bisher unbeantwortet sind und vielleicht auch zu selten gestellt werden.
Wir reden ja hier viel und gerne über die technologischen Implikationen von KI und was es für Fortschritte gibt und was es für Möglichkeiten gibt, KI außerhalb und auch innerhalb von Unternehmen einzusetzen. Wir reden auch viel und gerne über technische Einschränkungen, die vielleicht zum Teil von manchen übersehen werden, aus lauter Begeisterung, von Limits, von Grenzen, an die man notwendigerweise stößt, wenn man KI einsetzt. Heute möchte ich gerne reden von, sagen wir mal, KI im Zusammenhang mit unserer Entwicklung als Menschen, im Zusammenhang mit unseren sozialen Strukturen und in dem Kontext auch über ein Problem, das viele Leute ignorieren. Nämlich was eigentlich passiert, wenn KI immer mehr sich quasi durch Inzucht fortpflanzt oder beziehungsweise wenn KI auf seinen eigenen Inhalten trainiert wird. Was passiert, wenn KI immer mehr generierte, also KI generierte Daten zum Training bekommt. Aber das Interessantere, und deswegen fangen wir damit auch an, ist aus meiner Sicht die Auswirkung von KI auf uns als Menschen. Also was bedeutet es für uns als Personen, als intellektuelle Lebewesen, wenn wir immer mehr KI verwenden für immer mehr Aufgaben in unserem Alltag? Was wird das langfristig mit uns machen, wenn wir, sagen wir mal, nicht Spielregeln definieren, die vielleicht unseren Umgang mit KI auch in einer gewissen Weise regeln, wie das jetzt momentan noch nicht geregelt ist. Und das heißt nicht, dass ich jetzt für wahnsinnig strenge Gesetze plädieren will oder regulatorische Mechanismen oder so, sondern es geht mir eigentlich darum, ein bisschen Bewusstsein und Aufmerksamkeit zu schaffen für Effekte, die KI haben kann und die vielleicht noch nicht im unmittelbaren Problembewusstsein von jedem verankert sind. Man muss sich dazu klar machen, das ist vielleicht nicht jedem offensichtlich oder man macht es sich vielleicht nicht bewusst, das Schreiben, also etwas aufzuschreiben, sei es jetzt von Hand, sei es indem man es in den Computer tippt oder so, das ist ein wesentlicher Prozess für Menschen. Das ist nicht einfach nur eine leere Handlung, sondern man könnte sogar so weit gehen und sagen, Schreiben ist Denken. Erstens kann man nicht schreiben ohne zu denken, das sollte klar sein. In dem Moment, wo ich irgendwas zu Papier bringen will oder aufschreiben will, muss ich über das Thema nachdenken. Zweitens ermöglicht Schreiben aber auch eine andere Form von Denken, das heißt eine aus meiner Sicht effektivere Form von Denken in einer gewissen Weise. Schreiben strukturiert Gedanken. In dem Moment, wo wir was aufschreiben, strukturieren wir unsere Überlegungen zu dem Thema. Wir machen sie systematischer und speichern sie quasi extern. Dadurch verlangsamt Schreiben quasi unsere Denkprozesse in einer gewissen Weise. Denken läuft natürlich immer gleich schnell ab, das heißt einfach nur, dass wir mehr Denkarbeit investieren, bevor wir etwas aufschreiben, als wir normalerweise investieren würden, bevor wir zum Beispiel etwas aussprechen. Wir machen das bewusster, wir machen es langsamer, systematischer. Das Ganze ist ein viel strukturierterer Prozess, als wenn wir uns jetzt einfach nur hinsetzen und in die Ferne starren und dabei nachdenken. Gleichzeitig entlastet das Aufschreiben natürlich auch das
Speaker 2:Gedächtnis.
Speaker 1:Das heißt, der Moment, wo ich etwas niederschreibe, weiß ich, ich muss es nicht mehr aktiv in meinem Kurzzeitgedächtnis, das im Vordergrund behalten. Und das ermöglicht mir natürlich, viel komplexere Gedankengänge zu entwickeln, als wenn ich das versuche, alles im Kopf zu jonglieren. Also kann ich in einem Schreibprozess viel, viel mehr Einzelgedanken, viel, viel mehr Einzelaspekte gleichzeitig betrachten, als ich das in einem reinen Denkprozess könnte. Wir wissen ja alle, unser Kurzzeitgedächtnis ist begrenzt und unzuverlässig. Wichtige Gedanken gehen ganz leicht verloren, zum Beispiel die geniale Idee unter der Dusche, an die man sich später nicht mehr erinnert. Deswegen schreiben wir normalerweise solche Dinge auf. Und wenn wir jetzt ein längeres Dokument schreiben, dann gibt es ganz viele solche kleinen Gedanken, die wir persistieren, die wir niederschreiben, wenn man so will, um dann ein viel komplexeres Gedankengebäude formulieren zu können auf dieser Basis. Das kann jetzt in der E-Mail sein, wo man sich mal richtig Gedanken macht über ein bestimmtes Problem in einem Projekt zum Beispiel und wo man wirklich Schritt für Schritt niederschreibt, wie ist es dazu gekommen, was ist die Auswirkung aktuell, was kann man jetzt dagegen tun. Und das kann aber auch in einem Dokument sein, dass man über ein bestimmtes Thema verfasst, das noch viel länger ist. Das würde man mündlich so nicht hinkriegen, weil man immer Dinge übersieht, Aspekte vergisst und so weiter. Aber wenn man etwas so aufschreibt, systematisch dann vielleicht sogar liegen lässt, später zurückkehrt und nochmal ergänzt, dann hat man ein viel komplexeres Gedankengebäude erschaffen, als wenn man irgendein Meeting hat, in dem man jetzt ohne Agenda über das gleiche Problem reden würde. Meetings haben natürlich andere Vorteile. Das ist ja quasi mehr der Hive-Mind-Gedanke, da kann man Betrachtungen verschiedener Personen nebeneinander legen. Aber Schreiben ist meiner Meinung nach einer der effektivsten Wege, wie eine einzelne Person wirklich sicherstellen kann, dass ein konsistenter Denkvorgang tatsächlich passiert ist und wie diese Person das auch beweisen kann. Also wenn ich ein Dokument schreibe, dann habe ich bewiesen, über dieses Thema habe ich in irgendeiner Weise nachgedacht, im Rahmen meiner Möglichkeiten und in einer gewissen Tiefe. Wenn ich jetzt das gleiche Dokument mit KI erzeuge, dann fällt das natürlich alles weg. Also mein eigener Denkprozess hat damit nicht mehr viel zu tun und die KI erzeugt das Produkt, das heißt, es ist auch nichts von meinem spezifischen Wissen, von meiner vielleicht vorhandenen Kreativität oder von meiner einzigartigen Perspektive auf das Problem enthalten. Und damit geht natürlich dem Diskurs, also der Interaktion mit meinem Kollegen und so weiter etwas verloren. Ich meine jetzt nicht unbedingt so Extrembeispiele, wie wenn jemand hingeht und öffnet ChatGPT oder Cloud oder irgendein anderes Tool und promptet, mach mal einen Businessplan für Firma XYZ und dann hofft er, dass da irgendwas Sinnvolles rauskommt. Sowas ist eh sehr fragwürdig. Aber auch wenn ich mir eine gewisse Strukturierung überlege, mir ein paar Gedanken mache, ein paar Bullet Points zusammenstelle und das dann in ChatGPT füttere und dann macht mir ChatGPT ein Dokument daraus, dann habe ich mir trotzdem einen Großteil der Denkarbeit erspart, indem ich mir die gesamte Schreibarbeit erspart habe. Die initiale Überlegung, der Schreibplan quasi, die initialen Bullet Points, das ist nicht der Großteil der Denkarbeit. Der Großteil der Denkarbeit findet statt, wenn ich das dann irgendwie sinnvoll zu Papier bringe. Das heißt, generative KI und ihre Leistungsfähigkeit darf uns das Schreiben und damit das Denken nicht vollständig abnehmen, aus offensichtlichen Gründen. Weil dann geht uns erstens die Übung verloren in diesem Prozess, es geht uns geistige Kapazität und Kreativität verloren. Banal gesprochen kann uns an der Stelle KI tatsächlich dümmer machen. Und natürlich sinkt auch durch diese KI die Qualität des Diskurses in Firmen.
Speaker 2:Sagen
Speaker 1:wir mal, ich habe einen Projektmanager, ich habe einen Softwarearchitekten, also einen Experten für Softwarearchitekturen, ich habe einen Business Owner oder Product Owner und diese drei Leute denken über ein Projektproblem nach, unabhängig voneinander. Sie schreiben das auf, schreiben einander vielleicht ausführliche E-Mails darüber, dann ist da sehr, sehr viel mehr Denkarbeit reingegangen, da sind sehr viel mehr verschiedene Perspektiven, verschiedenes Expertenwissen repräsentiert, als wenn ich irgendetwas mit KI erzeuge. Wenn ich diesen gleichen Diskurs über ein paar Bullet Points und Chat-GPT abbilde, dann fehlen Perspektiven, es fehlt Expertenwissen und nicht nur die Leute werden dümmer, sondern eben auch der Diskurs wird armseliger. KI kann das nicht ersetzen, nicht aktuell, nicht später, aus meiner Sicht wahrscheinlich nie. Das sage ich jetzt wieder mal ganz kühn, auch wenn mir da vielleicht widersprochen wird, aber es wird schon immer Aspekte geben, die unik menschlich sind und Perspektiven, die trotzdem, obwohl oder weil sie menschlich sind, wertvoll bleiben. Aber im Moment sind wir sehr, sehr weit davon entfernt, dass uns KI überhaupt irgendwelche echten Expertenperspektiven gibt. Vor allem kann KI keinen Experten ersetzen, der sich tatsächlich mit den Strukturen in einer Firma auskennt. Denn die Weisheit von JetGPT ist letzten Endes eine statistische Verallgemeinerung der verfügbaren Texte über ein Thema oder jetzt neuerdings auch Bilder und Videos und so weiter. Aber es ist zwangsläufig und definitionsgemäß Mittelmaß. Ja, KI kann so agieren, als wäre es ein Experte in ganz vielen verschiedenen Bereichen, aber auch dort ist dieses Large Language Model nur ein durchschnittlicher Experte. Gerade weil das Large Language Model den Durchschnitt oder eine statistische Verallgemeinerung verschiedener Meinungen vornimmt. Deswegen wirken so KI-Texte oft beeindruckend für Menschen mit nicht so großem Fachwissen in einem bestimmten Gebiet. Für echte
Speaker 2:Experten wirken
Speaker 1:diese Texte aber oft banal und althergebracht und gewöhnlich. Bitte nicht falsch verstehen, diese KI-Texte und die Technologie, die sind oft super beeindruckend und für viele Sachen auch wahnsinnig nützlich, aber sie produzieren nun mal nichts wirklich Neues oder Herausragendes. Das wird auch nicht passieren. Die KI kann nicht aus ihrem Training ausbrechen. Da komme ich später auch nochmal drauf. Aber letzten Endes erschafft die KI nichts, was über ihre Trainingsdaten hinausgeht. Diese Trainingsdaten, also was es an Texten in den Trainingsdaten gab, werden neu zusammengestellt, neu formuliert und inspirieren sich sicher auch so ein bisschen gegenseitig, aber es wird nicht etwas passieren, wo die KI aus diesen Trainingsdaten heraustritt und etwas völlig Neues schafft. Generierte Texte können absolut hundertprozentig sinnvolle Ausgangspunkte sein für Denkarbeit. Zum Beispiel kann ein generierter Text sicherstellen, dass ich nichts von den offensichtlichen Dingen vergesse, gerade weil es so althergebracht und durchschnittlich ist. Genau dafür ist es optimal. Ich hole mir die statistische Verallgemeinerung aus dem Wissen des Internet, wenn man so will, und dann kann ich schon mal nichts Wesentliches vergessen, was irgendjemand anders schon mal in diesem Thema beigetragen hat. Die KI ersetzt aber nicht meinen eigenen Denkprozess, mit dem ich vielleicht jetzt aus meiner einzigartigen Perspektive wirklich was Neues einbringen kann. Man könnte anders sagen, durch die KI generierte Kommunikation steigt die Informationsmenge stark an, die wir quasi jetzt verarbeiten müssen, während gleichzeitig der Erkenntnisgewinn pro Volumen sinkt. Da gibt es jetzt noch keine Untersuchung dazu. Ich denke, aber das könnte man irgendwann mittelfristig auch mal machen, so eine Untersuchung. Aber ich behaupte, die Kommunikation, die jetzt passiert, die zum Teil eben KI generiert ist, transportiert letzten Endes pro Textvolumen weniger Informationen, weniger wesentliche Informationen, als das früher der Fall war. Weil bei einer E-Mail, wenn ich die manuell formuliere, überlegt man sich wirklich genau, was man da jetzt reinschreibt. Da schreibt man genau das rein, was einem wichtig ist und was man transportieren will zum Gegenüber. Wenn ich die gleiche E-Mail mit KI generiere, dann wird sie länger, wird sie ausführlicher, aber der Gewinn bzw. der Gehalt an spezifischer Informationen steigt eigentlich nicht. Das heißt, alles das, was ich damit tue, steigert eigentlich nicht den übergreifenden Erkenntnisgewinn, sondern ich mache meinen Kollegen, meinem Gegenüber mehr Arbeit mit der Verarbeitung. Daher kommt ja auch diese Situation, über die sich manche beklagen, dass ein Kollege jetzt mit KI-Unterstützung statt 25 E-Mails schreibt jeden Tag, die ich lesen muss und mit einem geringeren Erkenntnisgewinner als vorher. Und es ist ja auch tatsächlich so, wie man manchmal anekdotisch sagt, der eine überlegt sich Bullet Points, macht mit KI eine E-Mail draus, der andere nimmt die Mail, macht mit KI wieder Bullet Points draus, einfach nur damit er den ganzen Quark nicht lesen muss. Das ist unglaublich, wie krass Erkenntnisgewinn in so einer Kommunikation dann sinken kann, wenn man solchen Ansätzen nicht ein bisschen den Riegel vorschiebt. Wie gesagt, KI-Texte als Ausgangspunkt, KI-Texte als Umformulierung von etwas, was ich mir überlegt habe, KI als Korrektor, als Sparring-Partner, als Editor, alles das ist großartig. Aber KI als Creator, als echter Erzeuger von Informationen ist fast nie eine gute Idee. Das sieht man übrigens auch im privaten Bereich. Wenn ich bei Chefkoch nach einem Rezept suche, dann kann das ein schlechtes Rezept sein oder ein gutes Rezept, je nachdem wer das hochgeladen hat. Wahrscheinlich hat es eine Bewertung, aber auf jeden Fall ist trotzdem das Rezept eine konsistente Anweisung einer einzelnen Person, die diese Schritte wahrscheinlich schon mal so durchgespielt hat. Wenn ich mit ChatGPT ein Rezept generieren lasse, dann ist das letzten Endes ein Querschnitt darüber, wie man normalerweise dieses Gericht oder diesen Ablauf macht. Und falls jetzt in den Trainingsdaten die Meinungen über den richtigen Ansatz für dieses Rezept weit auseinander gehen, dann kommen da manchmal bei ChatGPT Prozeduren raus oder bei allen Large Language Models, die gar keinen Sinn ergeben, weil quasi in der statistischen Verallgemeinerung zwei oder drei nicht kompatible Prozesse zusammengebaut werden und das ist dann der Prozess, den die KI hier ausspuckt. Da muss man ein bisschen darauf achten, wenn man sowas generiert. Das ist häufiger so, als man denkt, gerade für komplexe Abläufe, wo es eben verschiedene Varianten gibt, die aber nur zusammenhängend Sinn ergeben. Das ist immer die Gelegenheit, wo solche Phänomene auftreten. Ein Aspekt, den man auch vielleicht wirklich aktuell zu wenig beleuchtet und den man nicht vergessen darf in dem ganzen Kontext, ist natürlich der Respekt für den Kreativen, wenn man so will. Wir sind jetzt mit Large Language Models und multimodalen Modellen vor allen Dingen auch in der Lage, Dinge oder Artefakte zu erzeugen, die im weitesten Sinne so aussehen wie Kunst. Wir können Texte erzeugen, die sich ein bisschen so anhören wie Literatur oder auch sehr so anhören wie Literatur. Wir können Bilder erzeugen, wie Malerei oder Zeichnung aussehen. Das ist alles nie wirklich originell.
Speaker 2:Es hat
Speaker 1:nie wirklich originelle Kreativität, aber das haben natürlich viele Artefakte, die Menschen erzeugen, auch nicht. Also viele Kinderbücher haben überhaupt keine Kreativität oder überhaupt keine Originalität. Chat, GPT und andere Large Language Models, die können alles reproduzieren, was sie jemals aufgenommen haben in den Trainingsdaten. Man kann sie betrachten wie eine Person mit perfektem Gedächtnis. Und natürlich, wenn ich jetzt eine Person wäre mit einem perfekten Gedächtnis, mit einer perfekten Erinnerung an alles, dann könnte ich alles wissen, was ich jemals gelesen habe, reproduzieren und natürlich auch noch darauf achten, dass ich es nicht wörtlich reproduziere und damit nicht eigentlich ein Plagiat erzeuge. Und wenn man jetzt von so einer Person mit einem perfekten Gedächtnis und perfekten Reproduktionsfähigkeiten ausgeht, dann verschwimmen die Grenzen zwischen Inspiration, Plagiat und Urheberrechtsverletzung, weil man das Ganze eigentlich nicht mehr wirklich unterscheiden kann. Es ist ein Riesenunterschied, ob ich jetzt sage, ich habe mal was von Aldous Huxley gelesen und das hat mich inspiriert, einen eigenen Text zu schreiben, oder ob ich sage, ich habe Aldous Huxley komplett auswendig gelernt und jetzt mache ich einen Text, der exakt so ist wie ein Buch von ihm, zum Beispiel Brave New World, aber ich vermeide es, dieses Buchwort wörtlich zu reproduzieren. Ist das nun ein Plagiat, wenn ich die Ideen übernehme, die Strukturen übernehme, die Spannungsbögen übernehme, den Stil übernehme? Ich würde sagen, irgendwann ist es dann ein Plagiat, selbst wenn es nicht eine wörtliche Reproduktion ist. Aber das ist etwas, was ein Mensch natürlich normalerweise nicht leisten kann. Die KI kann das. Also kreative Aufgaben, so wie Schreiben im Stil von Eldos Huxley oder machen wir mal den vierten Band zum Herrn der Ringe, die werfen natürlich ganz neue moralische und rechtliche Fragen auf, die man mit dem aktuellen Urheberrecht und vielleicht auch mit unserer aktuellen Einstellung zu diesen Themen nicht beantworten kann. Diese Antworten sind aber absolut notwendig, weil wir sonst gleich in zwei verschiedenen Bereichen Probleme kriegen. Einerseits stoßen wir natürlich die Kreativen vor den Kopf, deren Einfluss auf die Gesellschaft, deren Gelegenheiten, sich tatsächlich selbst zu produzieren und sich zu bewähren und auch Geld zu verdienen, werden dadurch immer geringer. Das heißt, diese Personen verlieren Lebensinhalt und auch Lebensunterhalt. Andererseits werden natürlich immer mehr von den Artefakten, Texten, Bildern und so weiter von KI erzeugt, überschwemmen das Internet und fließen damit dann aber auch wieder ins Training dieser Modelle ein. Das heißt,
Speaker 2:Trainingsdaten,
Speaker 1:die an eine KI gefüttert werden, sind in zunehmendem Maße ursprünglich auch von einer KI erzeugt worden. Das führt natürlich auch zu einer Art Inzucht beim Training. Und Inzucht beim Training von Machine Learning, genauso wie auch in der biologischen Welt, führt dazu, dass das Ergebnis langfristig immer schlechter wird. Es gibt Untersuchungen dazu, was passiert, wenn man KI mit ihrem eigenen Output füttert, zu lange oder zu unkontrolliert und das Ergebnis ist meistens eine sehr, sehr rapide oder sehr drastische Verschlechterung von Qualität. Es ist ja auch logisch in einer gewissen Weise, wenn ich jetzt aktuell zum Beispiel eine KI trainiere auf Basis von Fotos, die wirkliche Fotografen gemacht haben, zum Beispiel Dali oder ähnliche KIs, dann kann die jetzt natürlich auch fotografieähnliche Bilder generieren. Die sind oft langweilig und vorhersehbar. Also das heißt, wenn ich einen Prompt schreibe, um so ein Bild zu erzeugen, dann weiß ich im Prinzip schon, was da rauskommt, weil die KI selten kreativ ist und selten originell. Aber manche sind auch schon irgendwie total putzig und cool, meistens dann besonders, wenn sie eben einen Stil kopieren von jemand bestimmten, den es schon gibt von einer Person oder von einer ganzen Schule von Kunst. Und in beiden Fällen ist das Ergebnis dann irgendwann wieder Teil des Trainings, wenn man nicht aufpasst und führt dazu, dass die Ergebnisse immer durchschnittlicher und vorhersehbarer werden, weil diese nicht herausragenden Beispiele werden immer mehr und die herausragenden, großartigen Beispiele für eine bestimmte Art von Kunst bleiben gleich, weil die Kreativen erzeugen ja nichts mehr, weil es sich nicht mehr lohnt. Auch dadurch degeneriert das nicht. Da kann man sich Papers anschauen, das ist wirklich interessant, was dann zum Teil passiert. Vor kurzem gab es ja diesen riesen Trend, weil Open AI jetzt Bilder im Stil von Studio Ghibli generieren kann oder auch ganze Szenen. Und es gab so eine Flut an Memes und Verwendungen, also inflationäre Verwendungen dieses einzigartigen und individuellen Stils. Ohne Rücksicht natürlich auf die Künstler, die den ursprünglich erschaffen haben, also die Mitarbeiter oder Gründe von Studio Ghibli. Und natürlich auch, wie das im Internet so ist, in völlig banalen Kontexten. Das entzaubert natürlich etwas, ein Universum, wo Menschen sich sehr, sehr viel Mühe gemacht haben, eine bestimmte Atmosphäre durch einen Stil und auch durch die Art, wie dieser Stil verwendet wird, aufzubauen. Es ist ja nicht nur, dass der Stil von Studio Ghibli einzigartig war, sondern was auch einzigartig war, sind die Filme, in denen er angewandt wurde. Die haben alle eine konsistente Botschaft, würde ich sagen, eine konsistente Ästhetik, eine konsistente Erzählweise. Und all das ist kaputt und all dieses, das banalisiere ich, wenn ich die gleiche Ästhetik auf so zahlreiche und überflüssige Dinge in anderen Kontexten anwende. Damit haben wir in dem Sinne Studio Ghibli entzaubert. Wir haben auch quasi wirklich eine krasse Respektlosigkeit gegenüber den Kreativen begangen, haben aber auch bewiesen, dass die KI großartig ist in der Reproduktion, aber eben nicht originell. KI-Output wirkt ironischerweise umso origineller, je hemmungsloser sich die KI bei einem bestimmten Stil bedient. Weil eben die Verallgemeinerung der Durchschnitt der Trainingsdaten immer nur Banalität hervorbringt. Aber dieses Spezifische, dieses Fokussieren auf einen bestimmten Stil, das wirkt dann natürlich umso menschlicher. In diesem Sinne werden wir irgendwann sicher auch das nächste KI-komponierte Nirvana-Album hören und dann einen weiteren Aspekt menschlicher Kreativität zugrabe tragen. Momentan ist ja KI-generierte Musik noch, also zumindest alle Beispiele, die ich gehört habe, wirklich furchtbar und auf sehr durchsichtige Weise überflüssig. Aber wir werden sicher auch da bald dahin kommen, dass für einen Laien nicht mehr zu unterscheiden ist, ob das wirklich ein Nirvana-Song ist oder nicht. Und wir werden eben auch da diese völlige Banalisierung sehen und werden dann eben auch einen einzigartigen Stil von irgendeiner Band oder einem Komponisten zu Grabe tragen, weil er inflationär verwendet wird. Und auch da wird es dann natürlich wieder zu diesem Selbsttraining mit immer größerer Banalisierung kommen. Nochmal, KI kann nicht aus ihren Trainingsdaten ausbrechen. Echte Originalität wird KI nicht erschaffen. KI wird nichts erschaffen, was nicht in irgendeiner Form in den Trainingsdaten, die letztendlich Menschen erzeugt haben, nicht schon angelegt ist. Aber die Nachahmung, die Mimikrie wird immer perfekter werden. Und auf Basis der unglaublich großen Trainingsmenge, auf Basis dieser unglaublichen Zusammenschau, ich will nicht sagen der gesamten, aber fast der gesamten menschlichen Kreativität, wirkt es eben manchmal originell, ist aber dann meistens nur ein umso frecheres Plagiat. So wie kann man jetzt damit umgehen? Ich glaube, da werden wir noch lange drüber nachdenken müssen, um gute Antworten zu finden. Ich habe da auch keine Antworten von der Stange. Ich bin begeisterter KI-Nutzer, ich bin begeisterter KI-Integrierer auch, das ist ja was unsere Firma macht. Wir bauen KI-Komponenten, spezifische Komponenten in die Softwarelandschaft von Unternehmen ein und lösen damit zum Beispiel Automatisierungsprobleme oder Qualitätsprobleme. Aber wir machen uns, glaube ich, mehr als andere bewusst, dass diese Technologie natürlich auch Risiken bietet. Im Unternehmenseinsatz auch, aber gerade eben auch im privaten Einsatz, was viel unterschätzt wird. Genauso wie Autos zum Beispiel, die haben Freiheit und soziales Zusammenwachsen und solche Dinge ermöglicht, aber natürlich sind sie auch an sich gefährliche Maschinen. Genauso wie Mobiltelefone. Johnny Ive zum Beispiel hat ja gesagt, dass er das iPhone, also dass er auch eine große Menge an Reue empfindet über das iPhone, einfach weil die negativen Aspekte
Speaker 2:mit
Speaker 1:Brainrot und so weiter und der Art, wie die Leute sich an dieses Telefon binden, so gigantisch sind. Das wird man nicht ausschließen können, aber man muss Dinge zumindest beim Namen nennen, muss sich bewusst machen, dass auch hier im privaten Bereich für diese Technologie immer eine Abwägung gibt zwischen Chancen und Risiken und dass sich diese Risiken eben auch zum Beispiel auf uns selbst beziehen können. Insbesondere beim Einsatz von KI in bestimmten Kontexten, zum Beispiel in der Schule oder so, kann man sich das, glaube ich, ganz gut klar machen. KI bietet erhebliche Chancen, absolut eine effizientere Nutzung und Demokratisierung vorhandenen Wissens. Und auch wenn ChatGPT manchmal Quatsch erzählt, kann ich trotzdem solche Dinge machen, wie zum Beispiel ein Wikipedia-Artikel oder ein Kapitel aus dem Buch über ein komplexes mathematisches Problem an die KI füttern und sagen, fassen wir das mal zusammen, sodass ich es verstehe mit meinem Background als Gymnasiast der achten Klasse oder sowas. Das heißt, vorhandenes Wissen wird viel zugänglicher gemacht, weil ich es jetzt für verschiedene Voraussetzungen und für verschiedene Zielgruppen umformulieren kann. Oder ich kann KI verwenden, um mir Tabellen erklären zu lassen oder bestimmte Auswertungen zu machen und so weiter und so fort. Auf der anderen Seite drohen natürlich erhebliche Risiken in den gleichen Kontexten, wo auch diese Chancen entstehen, eben in der Schule oder in der Unternehmenskommunikation. Und ich denke, viele andere Einsatzorte von KI in Unternehmen sind wichtiger und besser als diese reine direkte Kommunikation zwischen Mitarbeitern, über die wir jetzt gesprochen haben. Aber auch dort gibt es Chancen und Risiken. Und Risiken, die eben nicht harmlos sind, sondern aus meiner Sicht wirklich schmerzhaft für die Menschheit, wenn wir sie nicht in den Griff kriegen. Zum Beispiel dieser Verlust intellektueller Selbstständigkeit, der Verlust von Kreativität oder auch der Verlust der Motivation für Kreativität, weil eben auch das Level an Anerkennung sinkt. Also es gibt nicht nur den Effekt, dass die Trainingsdaten dadurch immer schlechter werden langfristig, sondern es ist ein erhebliches Risiko, aus meiner Sicht ist eben die Gefährdung der Lebensgrundlage echter kreativer Köpfe durch diese massenhaft erzeugte Durchschnittlichkeit. Es ist natürlich immer so, dass in solchen Phasen die wirklich großartigen Künstler oder Content-Ersteller oder wie auch immer man das nennen will, normalerweise vorn rauskommen. Die leiden da bei weitem nicht so drunter. Wenn ich jetzt zum Beispiel an Firmen, Illustrationen oder Logos oder sowas denke, dann kann ich mit KI durchaus Dinge erzeugen, die gut genug sind. Gut genug wird nicht die echten Künstler ersetzen, aber gut genug wird die ganzen Professionals ersetzen, die jetzt bisher von dieser Art von Kreativität leben. Ohne jetzt Lösungen zu haben für diese Probleme und ohne zu sagen, man muss KI verbieten, weil das ist natürlich weder realistisch noch sinnvoll, sollte man wirklich nicht nur über die aktuelle Technologieentwicklung nachdenken, die schnell und interessant ist und aufregend und so weiter, aber interessanter und wichtiger ist es eigentlich über die sozialen Implikationen dieser Technologie nachzudenken. Auch über technologische Szenarien der Zukunft, die durch das, was wir heute entscheiden, durch das, was wir heute machen, ausgelöst werden können. Insbesondere eben in unserem persönlichen Umgang mit solchen Tools, der immer die Gefahr birgt, dass wir uns deintellektualisieren und damit wertloser machen. Wir müssen uns davor hüten, dass wir statt die KI schlauer zu machen, im Endeffekt die Menschen dümmer machen.