Interview KI und ChatGPT - Verformung der Persönlichkeit?
Ein ganzheitliches Interview mit Heinz Köberl, dem Erfinder der EmoLearn Lernmethode für das Erlernen des 10-Finger-Schreibens am Computer mit dem Lernsystem Emo2Type.
Herr Köberl, seit wann befassen Sie sich mit dem Thema KI und Chatbots?
Die heutigen Modelle und Funktionen von KI waren vor 15 Jahren abzusehen und mit dem Smart-Zeitalter ja faktisch schon auf dem Weg. Die Ursprünge liegen ja im "Machine Learning". Das Thema schlummerte schon bei der Erfindung von Emo2Type 10-Finger-Schreiben im Jahr 2008 in mir mit. Es war mit ein Grund, warum ich mit unserem damaligen Team ein Lernsystem schaffen wollte, welches die Überwindung der Schwelle zum "schnellen Selbstschreiben" einfach leichter macht. Bis 2016 war ich ein ausgewiesener Kritiker der smarten Technologien. Erst seither habe ich mich mit smarter Kommunikation und KI wirklich beschäftigt. Dafür dann intensiv. Chatbots habe ich lange belächelt und ignoriert. Mit zunehmender Kenntnis über deren Aufwertung per KI ist mein Lächeln darüber verflogen. Das Thema ist sehr ernst und vor allem auch fixer Bestandteil unserer Zukunft. Die bereits angestoßenen Veränderungen gehen über den Bereich Kommunikation sehr weit hinaus.
Was halten Sie von der Technologie des KI grundsätzlich?
Ehrlich gesagt bin ich da sehr zwiegespalten, auch wenn die Technik für sich natürlich hochfaszinierend ist. Mich begleiten mit diesen Fähigkeiten von Software gleich zwei Metavergleiche: Atomkraft vs. Atombomben, Künstliche Intelligenz vs. degradierender Mensch.
Ohne Anspruch, damit Nutzen und Gefahren dieser Technologien mit dem Nagel auf den Kopf zu treffen, denke ich, dass wir auf jeden Fall sehr aufpassen müssen. Gerade im Zeitalter Industrie 4.0 ist Automation allein global gesehen nicht mehr ausreichend konkurrenzfähig. Computer können ganz ohne Emotion Prozesse durch KI auf das Wesentliche, auf den Zweck optimieren. Gelernt von Menschen, allerdings ohne die menschlichen "Umwege der Gedanken". Mit einer "leichten KI" kann eine mögliche kleine Aufgabe schneller, präziser bewältigen, ohne die Kontrolle über unser eigenes Sozialverhalten zu verlieren.
Zum Beispiel: "Google fragen" ist das eine, selbst wenn hier die Privatsphäre mehr oder minder veräußert wird. Doch die Antworten direkt als "persönliche Optimierung" oder gar Lösung zu betrachten, damit also das eigene Verhalten mehr oder minder fremdbestimmt leiten zu lassen halte ich für extrem gefährlich.
KI ist imstande, sich sogar mit NLP-Elementen ausgestattet an uns so anzupassen, dass sie die Absichten von Absendern als Trojanisches Pferd in uns importiert, ohne dass wir es wahrnehmen. Hier muss ein gesetzlicher Riegel her.
Was führt Sie zu dieser sehr negativ anmutenden grundsätzlichen Aussage?Da sind gleich drei Sorgen.
- Nach dem Smartformat werden die Fähigkeiten von KI und ChatGPT weithin völlig unterschätzt und medial viel zu wenig abgehandelt.
- Die Gesetzgeber weltweit - vor allem in Europa - haben die Entwicklung völlig verschlafen und so gut wie keine Rahmenbedingungen gesetzt. Hier passieren Dinge, die so neu sind, dass man in Gesellschaftsstrukturen weder Regeln, geschweige denn Rechtssprechungen findet.
- Allein die Smartphones haben die Menschen schon sehr in deren Verhaltensweisen verändert. Das Smartformat und die Märkte sind inzwischen ausgelutscht, das Ende der "Handy"-Fahnenstange erreicht. KI und Tools wie ChatGPT sind das nächste Zeitalter, um noch tiefer in unsere Souveränität einzudringen. Man muss es als Faktum betrachten: Diese Tools haben alle Attribute, um das auch zu schaffen. Wir sehen gerade erst den Anfang.
Sie erwähnen die Medien. Was haben die damit zu tun?
Mainstreammedien wie auch investigative Medien sollten eigentlich breite Information und Aufklärung zu gesellschaftsrelevanten Themen liefern. Sie haben durch Oberflächlichkeit und auch jahrelangem Desinteresse an kritischer Recherche hier völlig versagt. Die Fachpresse war hier zwar "am Drücker", allerdings bekanntermaßen mit sehr geringer Reichweite. Mehr als 90% der Menschen wissen nicht, was KI wirklich macht, kann und wie sie das digitale Abbild eines Menschen durch maschinelles Lernen mit hochentwickelten Algorithmen perfektioniert. Es ist weitestgehend Eliten oder Menschen von Fach vorbehalten, KI überhaupt zu verstehen. Die Masse läuft in das offene Messer eines technischen Potenziales, das weit über die Vorstellungskraft seiner Konsumenten hinaus geht. Ich kenne einige Geschäftsfreunde, die sogar KI mit frei nutzbaren Baukasten selbst programmieren. Mit völlig intransparenten AI-Baukästen auf sehr schrägen Domänen! Hier wurde ein blinde Begeisterung mit schweren Folgen ausgelöst. Dass die ganzen Logs der gebauten KI dann komplett irgendwo an ein unbekanntes Rechenzentrum gesendet, analysiert und weiterverwertet werden, interessiert gestandene Geschäftsläute plötzlich überhaupt nicht mehr. Das ist sehr erschütternd und auch völlig verantwortungslos. Ich habe per 01.06.2023 noch keine einzige Zeile der Kritik an solchen KI-Baukästen gelesen. Warum gibt es da keine öffentliche Aufarbeitung? Ist sie partout nicht gewollt?
Wenn eine Studie in Oxford, an der auch der leitende Wissenschaftler von Google Deepmind in privater Mission beteiligt war, zu dem Ergebnis kommt, dass eine KI das Potenzial hat, sogar wahrscheinlich die Menschheit auszulöschen, kann man auch medial meiner Meinung nach nicht einfach so weiter machen. Hier liegt die Mammutaufgabe im öffentlich-rechtlichen Bildungsauftrag und der Aufklärung.
Was sollten hier denn Gesetzgeber nun tun?
Der Zug, den es zu regeln gibt, ist längst aus dem Bahnhof. Es nützt nichts, per pedes hinterherzulaufen, um noch aufzuspringen und dann sich bis zum Lokführer vorzuarbeiten. Das wird zu lange dauern.
Man muss einfach einen schnelleren Weg an Bahnstation 10 finden, um den Zug dort zu stoppen. Ich komme noch später darauf zurück.
Das hängt eher am Willen der Befugten, als am wie. Es ist möglich, wenn man es will. Mit einem klaren Einschnitt, der den Menschen an erste Stelle stellt. In kurzer Zeit. Da sieht es derzeit leider gerade schlecht aus. Es muss ein kompromissloser Einschnitt sein.
Ist Deutschland denn nicht ohnehin schon mit genügend Gesetzen ausreichend aufgestellt, die die Gefahren von KI begrenzen?
Gesetze gibt es in der Tat genug. Doch sind sie in Struktur und Zweck nicht dazu geeignet, eine derartige Technologie samt ihren Folgen für Menschen rechtssicher zu adressieren. Ich behaupte dabei auch nicht, dass dies leicht wäre. Doch man schläft hier weiter. Und ich frage mal salopp: Absichtlich?
Beispiel 1: Faktenchecker, Initiativen gegen Hass im Netz, Desinformation:
Wir haben Gesetze, die im Zusammenleben Grenzen setzen. Diese sind bereits ohne KI und Tools wie ChatGPT oft sehr strittig. Wenn ein Mensch Hassreden im Netz oder auch im realen Leben produziert, wird er im Idealfall dingfest gemacht und zur Verantwortung gezogen. KI und insbesondere Chatbots können mehr oder minder in Eigendynamik Hass und Desinformation produzieren. Wer haftet? Wo? Nach welcher Gesetzgebung, wenn der "Täter" womöglich eine Software ist, von der keiner mehr sagen kann, wer sie produziert hat?
Beispiel 2: Politik
Es gibt inzwischen einen Bundesverband KI, der in LinkedIN bemerkenswerter Weise als "Politische Organisation" auftritt. Spätestens bei der Bundesklausur am 5.-6. März 2023 wurde dort zwar der Aufbau eines europäischen Hochleistungs-Rechenzentrums für KI-Entwicklungen in den Fokus gerückt. Das LEAM-Projekt. In keiner Weise - obwohl politisch gefördert - und als Thema sogar beim WEF-Forum in Davos vertreten, kommt hier noch der Mensch als prioritäre Institution vor. In erster Linie geht es um Leistungsfähigkeit, am KI-Kuchen möglichst mitzunaschen und einer von der internationalen Marketing-Lobby der Global Player gehypten Durchdringung des globalen digitalen Raumes. Wenn man sich die Kommentare von Entwicklern und Firmen, also Menschen, die sich mit dem Thema wirklich befassen ansieht, werden maximal die mitteleuropäischen, zu hoch angesetzten Datenschutzempfindungen der Bürger als Hemmschuh betrachtet. Allein diese Tatsache zeigt, dass der Mensch von KI und deren Leistungsfähigkeit quasi selbstverständlich "überrollt" werden darf und auch soll.
Das hätte nicht so kommen müssen! Denn Deutschland war mit dem Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI) im Jahr 1988 ins Leben gerufen ganz früh dabei bei der KI-Musik. Inzwischen spricht man davon, dass Deutschland von China und den USA abgehängt wurde und den Zug völlig versäumt hat. Ich meine: Auch und gerade im Verbraucherschutz. Wer hätte den eher definieren sollen, als wir Europäer? Man bedenke den Grundsatz: "Amerika kreiert, China kopiert, Europa reglementiert." Aus der Nummer kommen wir nicht mehr heraus, weil wir strukturell und als Gesellschaft im Ganzen zu langsam geworden sind. Uns bleibt nur die Reglementierung, um uns zu schützen.
Wie kann man KI denn eingrenzen?
KI ist eine fortschrittene, wirklich krasse Entwicklung, die seit einigen Jahren in Bereiche vorstößt, die davor nicht erkannt, ernst genommen, oder gar betreten wurden. Bei den Big Playern im Silicon Valley arbeiten Massen an fähigsten Kapazitäten überhaupt, insbesondere Psychologie und Soziologie. Diesen ungeheuren Machtfaktor zu reglementieren braucht krasse Maßnahmen. Man muss aus dem Bahnhof, an dem man den Zug versäumt hat endlich raus. Ziel muss sein, dass man in ein schnelleres Prozedere, als diesen fahrenden Zug kommt, dabei die Richtung sieht, wohin man muss, um den Zug anzuhalten und dem Lokführer die Regeln seiner weiteren Fahrt geben zu können. Am besten wartet man noch einen Bahnhof weiter, denn: Inzwischen müssen diese Regeln noch sauber und konsequent ausgearbeitet werden, anstatt ein Regel-Gemurkse zu produzieren. Entwicklungen in Europa zu bremsen ist sicher der falsche Weg. Standards zu entwickeln und die "Fahrt" dann zu evaluieren ist das Gebot der Stunde. Ansonsten werden nicht nur Persönlichkeiten "digital desavouiert", sondern ganze Gesellschaften, weil jeder Einzelne.
Was meinen Sie mit "desavouiert"?
KI findet mehr und vor allem bewusst protokolliert über uns heraus, als wir selbst. Ist das ein Fortschritt? Ich meine: Nein, weil das dem Naturell des Menschen widerspricht. Es hat auch nichts mit Intelligenz zu tun. Hier folgt nun mein zentraler Satz, den ich schon 2010 formulierte: "KI wird der menschlichen Intelligenz erst dann das Wasser reichen können, wenn der Mensch weitestgehend sich selbst degradiert hat - mit anderen Worten: "auf eine niedrigere Ebene verdummt" ist." Es ist erstmals in der Menschheit so, dass gesammelte Daten von jemanden verstanden und interpretiert und in persönliche Empfehlungen umgewandelt werden, der/die nicht Mensch ist. Und zwar in der Konsequenz, dass sich ein Soziales Miteinander entwickelt, die nicht mehr vom Menschen als Souverän selbst entschieden wurde, sondern von einigen Wenigen, die in der KI ganz oben stehen. Je nachdem wie KI anprogrammiert, algorithmisiert oder das suchende System mit "ja" bzw. jaja bzw. jajaja belohnt und gewichtet wird, umso mehr arbeitet es sich in immer neuere Levels in immer weitere Komplexitäten hoch. Mit den Priorisierungen der Suche kann man viel erreichen, aber auch extrem viel anstellen und zerstören.
Wenn es allerdings dann wirklich dazu kommt, dass die virtuell vorgeschlagene Handlungsweise für eine Abfrage so detailliiert, nahe an "echt" ist, zugleich der Nutzer sich darauf verlässt und es übernimmt, wird der betroffene Mensch umgehend zum Systemsklaven verkommen, mit einer erodierenden persönlichen Souveränität. Dazu wird er über kurz oder lang völlig unfähig, ohne technische Hilfmittel, im höchsten Falle KI, eigenständig durchs Leben zu kommen oder gar Entscheidungen zu treffen. Stichwort: "Betreutes Leben". KI kann beides: Helfen und zugleich unterlaufen. KI ist hoch subversiv. Wir haben den Beweis durch das Smartphone bereits erfahren. Viele sagen, das alleine wäre schon eine Katastrophe und finden das kontraproduktiv. Doch sagen fast auch so viele, dass man "damit leben muss". Das bedeutet: Wir sind "sturmreif geappt" bereits jetzt bereit, sich einer Technologie im Sozialverhalten unterzuordnen, und nicht mehr in Interaktion durch/mit Mitmenschen. Das ist der dramatischste Dammbruch hinein in eine Degradierung der menschlichen Spezies und der eigenen Souveränität. KI ist für alle Regeln auf die sich die Menschheit verständigt hat, disruptiv. Und das Stand Heute auch noch anarchisch ohne adressierbare Verantwortlichkeit.
Doch es gibt ja noch eine Möglichkeit der Selbstbeschränkung. Kürzlich hat doch erst Apple Verantwortung übernommen und eine KI-unterstützte ChatGPT-E-Mail-App aus seinem Store verbannt!
Das ist hoch lobenswert von Apple. Doch alleine die Tatsache, dass Apple aus eigenem Ermessen solche Apps zulässt oder verbannt, ist für sich schon hochbrisant. Wer garantiert einen verbindlichen Standard? Politisch, Gesellschaftlich? Wie umfrangreich? Wie konsequent? Hausverstand wie ihn hier Apple - selbstverständlich medienwirksam - gezeigt hat, war das Kriterium. Apple bestimmte ein Kriterium mangels geltender Norm für so einen Fall selbst.
Es ist überdies bisher ein Einzelfall, der spätestens jetzt ein klares, wie einfach definiertes Regularium, und zwar global, auf den Plan rufen muss. Davon liest man weder in den Medien einen Aufschrei, noch erfährt man von vorrangingen Gesetzesinitiativen. Wir bewohnen vergleichsweise ein Haus, in dem andere bestimmen, ob es bei Schnee und Kälte ein Dach gibt oder nicht. Je nach Gutdünken. Diese "anderen" bestimmen sicher einen supergünstigen Preis, um sich sein Dach dauerhaft zu sichern, oder? Sicher gleich günstig, wie das Dach, für das sie selbst gesorgt und bereits bezahlt haben. Dazu weiß die KI natürlich alle Funktionen in ihrem Haus und macht ihnen das günstigste Angebot, um auch das Haus noch zu steuern. Wer so etwas wirklich glaubt, ist bereits Opfer.
Inwiefern wird KI das Smartphone und den PC ablösen?
Smartphones werden wie alle anderen Kommunikationstechnologien, die diese Tools nutzen nur mehr "Modems" mit deren angestammten Kommunikationsfunktionen sein. Hier wird sich nichts Neues mehr entwickeln. Wir werden allerdings das wirkliche Geschehnis mehr und mehr sprichwörtlich "nicht mehr in der Hand" haben. Warum? Weil wir auf unsichtbare, fremdgesteuertes "Machine Learning in Verschmelzung mit "KI-veredelter" Kommunikation angewiesen werden. Extrembeispiel: Jemand, der im Grunde über eine Sache nichts weiß, kann in Echtzeit das, was er sagen möchte derart mit Informationen auffetten, dass das Gegenüber womöglich keine Chance hat, die Person/Kommunikation noch real zu bewerten. Das können Smartphones in Echtzeit bekanntlich nicht. Siehe Sprachkultur in Chats, bei denen offenkundig wird, dass jemand z.B. seine Sprache gar nicht schreiben kann. Tools wie ChatGPT können das übertünchen.
Das klingt ziemlich endzeitlich. Glauben Sie dass der Mensch seine Persönlichkeit im Ganzen verlieren könnte?
Der Mensch ist ein höchstentwickeltes, in seinen Fähigkeiten nicht kopierbares, so vielseitig begabtes und in seinem Bauplan einzigartiges Wesen für sich, das man nicht umsonst als Krone der Schöpfung bezeichnet. Wir kommen allerdings an eine Grenze, an der über hunderte Generationen gewachsene, angestammte Zivilisationsstrukturen sich aufzulösen drohen in einer künstlich "frisierten" Kommunikations- und Kulturblase. Diese virtuelle Welt ist bislang nur minimal hinterfragt blind und auch unkontrollierbar geleitet von maschinell erlernten Mehrheitslogiken, oftmals auch stark gewichteten Minderheitslogiken, einem "neuen menschlich veranlassten, maschinell kumulierten Schöpfungsprogramm" von dem man fix davonausgehen muss, dass sie letztlich für den Einzelnen ein Risiko wie bei "Atomkraft und Atombombe" bedeutet.
Dazu habe ich in futurezone.at meine Meinung zu einem Artikel hinterlassen, in dem Geoffrey Hinton, der Urvater von OpenAI Angst um die Menschheit hat.
Schlüssel für die ganzen KI- Entwicklungen sind Daten und deren Verarbeitungen. Was bedeutet das alles Ihrer Meinung nach für die Menschen in der Kommunikation?
Wir sind am zentralen Punkt. Big Data hat enorme Fähigkeiten an Wirkung und unerwünschten Nebenwirkungen in alle unsere Lebensbereiche. Jeder von uns hat schon irgendwo seinen Abdruck hinterlassen. KI schärft diesen Abdruck mit jeder Information mehr, ohne dass es viele zu bezahlende Menschen dazu braucht. Mit jeder Schärfung wird es möglich, dieses zweite Ich im Netz noch "echter" abzubilden. Cambrigde Analytica beim FB-Skandal war, Software wie Palantir sind unglaublich präzise Werkzeuge, die Daten von Personen in durchfrisierte Personen zusammenschaufelt, deren autorisierter, vor allem aber unautorisierter Gebrauch eine echte Gefahr sind. Die KI-Komplexitäten wachsen selbst an diesem Höchstniveau gemessen jeden Tag exponentiell und das unvorstellbar schnell.
Muss man vor KI Angst haben? Kann man sich dem noch entziehen?
Was raten Sie dem einzelnen User, z.B. in einem Chat?
Auf jeden Fall: Keine Panik! Angst ist eine natürliche Schutzvorkehrung zum Sichern seiner Unversehrtheit. Panik führt fast immer zum Gegenteil, in allen Lebenslagen und Kulturkreisen. Viel mehr empfehle ich Selbstkontrolle! KI ist grundsätzlich keine Intelligenz sondern eine hochfähige, maschinell lernende Software. Der Name täuscht. Wir Menschen sind von Natur aus weitaus fähiger, was unseren eigenen Nutzen betrifft. Wenn wir uns von KI-gesteuerten, kritischen Kommunikationsmethoden bewusst abgrenzen, können wir unsere eigenständige Ausdrucksweise weiter bewahren. Ansonsten werden wir feststellen, dass wir mehr und mehr "nicht mehr wir selbst" sind.
Voraussetzung zum Selbstschutz ist, dass man selbst ohne "unsichtbare" Hilfsmittel, wie Spracheingabe-Apps oder Textvorschläge oder Messenger Texte selbst einzugeben imstande ist. Nun könnte ich an dieser Stelle natürlich die Werbung für Emo2Type 10-Finger-Schreiben am Computer machen. Grundsätzlich gilt diese Empfehlung allerdings generell, bei welchem Anbieter man Schnellschreiben auch immer nachhaltig erlernen mag.
Hat man es selbst in den 10 Fingern, und damit in Händen, ist man auch schnell genug, allgemein Gefordertes in hoher Qualität schriftlich zu kommunizieren. Zudem sehe ich für die verbale Kommunikation die klassische Telefonnummer bei konsequent ausgeschalteten MessengerApps.
Wie halten Sie den Umgang mit KI selbst?
Ich benutze privat kein whatsapp und von den sozialen Medien lediglich LinkedIn für geschäftliche Zwecke. Virtual Reality (VR) betrete ich aktiv nicht. Zuerst besaß ich kein Smartphone. Seit 2019 zwei. Eines für die Übersicht operativer Abläufe. Ein Zweites für meine Telefonate auf Lineage OS ohne Internet, Google und weitere Apps. Die Werbungen und Phishingversuche in meinem privaten Spamordner sind um mehr als 95% reduziert. Mailverkehr habe ich nur noch auf eigenen Servern mit Adressen, die es auf die Whitelist schaffen.
Alleine, dass dies nötig ist, um nicht von disruptiven Informationen oder Funktionen täglich persönlich "zerlegt" oder fremdbestimmt zu werden zeigt, dass außerhalb der Industrie nicht viele IT-Innovationen zu unseren Gunsten gemacht sind.
Am Schluss die soziale Frage: Der Verlust der Interaktion mit Menschen in der Realität ist allerdings nicht durch KI verschuldet, oder?
Das liegt in der Tat nicht an KI. "Gemeinsam allein" oder auch nur "allein, allein" wurde in den letzten Jahrzehnten gesellschaftlich etabliert. Es hat sich lediglich mit den Jahrzehnten der Digitalisierung noch intensiver entwickelt. Es ist ein Resultat der letzten 50 Jahre, in denen sich Menschen immer mehr in eigene Welten flüchten konnten. PC, Gaming, Soziale Medien. Geistige Parallelwelten und Schizophrenie gab es schon immer. Doch nun sind Massen an Menschen durch die schier überwältigenden Antwile der Digitalen Angebote großteils verwirrt, oft willenlos, depressiv und letztlich dann füreinander müde. Wir sehen dies an Abermilionen von verwahrlosten Kindern, die von einem Medium ins andere torkeln. Dies hat sehr viele gesellschaftliche Gründe. Mit KI (AI) ist nun eine Technologie mit einer unheimlich exponentiellen Entwicklung geschaffen, mit dem der klare Verstand und die geschwächte Souveränität der Menschen nun in der Psyche "gestürmt" und mit "frisierten, die Realität vortäuschenden, sich anpassenden Empfehlungen programmiert" wird.
Interview Ende.
Erstellung Fragenkatalog: Netzwerk 10-Finger-Schreiben
Antwort: Heinz Köberl
Verweise:
https://futurezone.at/netzpolitik/kuenstliche-intelligenz-geoffrey-hinton-google-warnung-bard-chatgpt/402432474
https://www.hrpraxis.ch/2023/02/die-20-gefahren-von-chat-gpt-von-denen-niemand-spricht.html
https://www.forschung-und-wissen.de/nachrichten/technik/kuenstliche-intelligenz-wird-den-menschen-ausloeschen-13376678
https://www.trendingtopics.eu/apple-hat-eine-chatgpt-e-mail-app-aus-dem-app-store-verbannt/