Interview KI und ChatGPT - Verformung der Persönlichkeit?

Künstliche Intelligenz (KI) und ChatGPT revolutionieren zunehmend Kommunikationskanäle und begeistern viele Menschen. Zugleich sind sich die Allerwenigsten um die Auswirkungen dieser Technologien auf unsere eigene Persönlichkeit bewusst. Wie kommunizieren wir künftig am sichersten?

Ein ganzheitliches Interview mit Heinz Köberl, dem Erfinder der EmoLearn Lernmethode für das Erlernen des 10-Finger-Schreibens am Computer mit dem Lernsystem Emo2Type. (Aus Erstveröffentlichung 06/2023)

Herr Köberl, seit wann befassen Sie sich mit dem Thema KI und Chatbots?

Die heutigen Modelle und Funktionen von KI waren vor 15 Jahren abzusehen und mit dem Smart-Zeitalter ja faktisch schon auf dem Weg. Die Ursprünge liegen ja im "Machine Learning". Das Thema schlummerte schon bei der Erfindung von Emo2Type 10-Finger-Schreiben im Jahr 2008 in mir mit. Es war mit ein Grund, warum ich mit unserem damaligen Team ein Lernsystem schaffen wollte, welches die Überwindung der Schwelle zum "schnellen Selbstschreiben" einfach leichter macht. Bis 2016 war ich ein ausgewiesener Kritiker der smarten Technologien. Erst seither habe ich mich mit smarter Kommunikation und KI wirklich beschäftigt. Dafür dann intensiv. Chatbots habe ich lange belächelt und ignoriert. Mit zunehmender Kenntnis über deren Aufwertung per KI ist mein Lächeln darüber verflogen. Das Thema ist sehr ernst und vor allem auch fixer Bestandteil unserer Zukunft. Die bereits angestoßenen Veränderungen gehen über den Bereich Kommunikation sehr weit hinaus.

Was halten Sie von der Technologie des KI grundsätzlich?

Ehrlich gesagt bin ich da sehr zwiegespalten, auch wenn die Erfindung selbst für sich natürlich hochfaszinierend ist. Mich begleiten mit diesen Fähigkeiten von Software gleich zwei Metavergleiche: Atomkraft vs. Atombomben, Künstliche Intelligenz vs. degradierender Mensch.

Ohne Anspruch, damit Nutzen und Gefahren dieser Technologien mit dem Nagel auf den Kopf zu treffen, denke ich, dass wir auf jeden Fall sehr aufpassen müssen. Gerade im Zeitalter Industrie 4.0 ist Automation allein global gesehen nicht mehr ausreichend konkurrenzfähig. Computer können ganz ohne Emotion Prozesse durch KI auf das Wesentliche, auf den Zweck optimieren. Gelernt von Menschen, allerdings ohne die menschlichen "Umwege der Gedanken". Mit einer "leichten KI" kann man eine mögliche kleine Aufgabe schneller, präziser bewältigen. Das geht noch, ohne die Kontrolle über unser eigenes Sozialverhalten wirklich zu tangieren.

Zum Beispiel: "Google fragen" ist das eine, selbst wenn hier die Privatsphäre mehr oder minder veräußert wird. Doch die Antworten direkt als "persönliche Optimierung" oder gar Lösung zu betrachten, damit also das eigene Verhalten mehr oder minder fremdbestimmt leiten zu lassen, halte ich für extrem gefährlich.

KI ist imstande, sich sogar mit NLP-Elementen ausgestattet an uns so anzupassen, dass sie die Absichten von Absendern als Trojanisches Pferd in uns importiert, ohne dass wir es wahrnehmen. Hier muss eine gesetzliche Pflicht zur Bewusstseinsführung her.

Was führt Sie zu dieser sehr negativ anmutenden grundsätzlichen Aussage?

Da sind gleich drei Sorgen.
  1. Nach dem Smartformat werden die Fähigkeiten von KI, insbesondere ChatGPT weithin völlig unterschätzt und medial viel zu wenig abgehandelt.
  2. Die Gesetzgeber weltweit - vor allem in Europa - haben die Entwicklung völlig verschlafen und so gut wie keine Rahmenbedingungen gesetzt. Hier passieren Dinge, die so neu sind, dass man in Gesellschaftsstrukturen weder Regeln, geschweige denn Rechtssprechungen findet.
  3. Allein die Smartphones haben die Menschen schon sehr in deren Verhaltensweisen verändert. Das Smartformat und die Märkte sind inzwischen ausgelutscht, das Ende der "Handy"-Fahnenstange erreicht. KI und Tools wie ChatGPT sind das nächste Zeitalter, um noch tiefer in unsere Souveränität einzudringen. Man muss es als Faktum betrachten: Diese Tools haben alle Attribute, um das auch zu schaffen. Wir sehen gerade erst den Anfang.

Sie erwähnen die Medien. Was haben die damit zu tun?

Mainstreammedien wie auch investigative Medien sollten eigentlich breite Information und Aufklärung zu gesellschaftsrelevanten Themen liefern. Sie haben durch Oberflächlichkeit und auch jahrelangem Desinteresse an kritischer Recherche hier völlig versagt. Die Fachpresse war hier zwar "am Drücker", allerdings bekanntermaßen mit sehr geringer Reichweite. Mehr als 90% der Menschen wissen nicht, was KI wirklich macht, kann und wie sie das digitale Abbild eines Menschen durch maschinelles Lernen mit hochentwickelten Algorithmen perfektioniert. Es ist weitestgehend Eliten oder Menschen von Fach vorbehalten, KI überhaupt zu verstehen. Die Masse läuft in das offene Messer eines technischen Potenziales, das weit über die Vorstellungskraft seiner Konsumenten hinaus geht. Ich kenne einige Geschäftsfreunde, die sogar KI mit frei nutzbaren Baukasten selbst programmieren. Mit völlig intransparenten AI-Baukästen auf sehr schrägen Domänen! Hier wurde eine blinde Begeisterung für "KI selbst machen" mit schweren Folgen ausgelöst. Dass die ganzen Sourcen der gebauten KI dann komplett irgendwo an ein unbekanntes Rechenzentrum gesendet, analysiert und für neue Abfragen weiterverwertet werden, interessiert gestandene Geschäftsläute plötzlich überhaupt nicht mehr. Das ist erschütternd und auch völlig verantwortungslos. Ich habe per 01.06.2023 noch keine einzige Zeile der Kritik an solchen KI-Baukästen gelesen. Warum gibt es da keine öffentliche Aufarbeitung? Ist sie partout nicht gewollt?

Wenn eine Studie in Oxford, an der auch der leitende Wissenschaftler von Google Deepmind in privater Mission beteiligt war, zu dem Ergebnis kommt, dass AI(KI) das Potenzial hat, sogar wahrscheinlich die Menschheit auszulöschen, kann man auch medial meiner Meinung nach nicht einfach so weiter machen. Hier liegt die Mammutaufgabe im öffentlich-rechtlichen Bildungsauftrag und der Aufklärung.

Was sollten hier denn Gesetzgeber nun tun?

Der Zug, den es zu regeln gibt, ist längst aus dem Bahnhof. Es nützt nichts, per pedes hinterherzulaufen, um noch aufzuspringen und dann sich bis zum Lokführer vorzuarbeiten. Das wird zu lange dauern.
Man muss einfach einen schnelleren Weg an Bahnstation 10 finden, um den Zug dort zu stoppen.
Das hängt eher am Willen der Befugten, als am Wie. Es ist möglich, wenn man es will. Mit einem klaren Einschnitt, der den Menschen an erste Stelle stellt. In kurzer Zeit. Da sieht es derzeit leider gerade schlecht aus. Es muss ein kompromissloser Einschnitt sein, der sowohl Entwickler in die Pflicht nimmt, als auch den Konsumenten in aller Kürze aufklärt. Die gefeierte Machart der DSGVO ist da also kein Vorbild.

Ist Deutschland denn nicht ohnehin schon mit genügend Gesetzen ausreichend aufgestellt, die die Gefahren von KI begrenzen?

Gesetze gibt es in der Tat genug. Doch sind sie in Struktur und Zweck nicht dazu geeignet, eine derartige Technologie samt ihren Folgen für Menschen rechtssicher zu adressieren. Ich behaupte dabei auch nicht, dass dies leicht wäre. Dies zeigt auch der AIA-Entwurf 2021/206 der Europäischen Kommission, der noch immer nicht eingetütet ist und in der Realität bereits weit überholt. Da gibt es in den Medien wenig Informaton darüber. Und ich frage mal salopp: Absichtlich?

Beispiel 1: Faktenchecker, Initiativen gegen Hass im Netz, Desinformation:
Wir haben Gesetze, die im Zusammenleben Grenzen setzen. Diese sind bereits ohne KI und Tools wie ChatGPT oft sehr strittig. Wenn ein Mensch Hassreden im Netz oder auch im realen Leben produziert, wird er im Idealfall dingfest gemacht und zur Verantwortung gezogen. KI und insbesondere Chatbots können mehr oder minder in Eigendynamik Hass und Desinformation produzieren. Wer haftet? Wo? Nach welcher Gesetzgebung, wenn der "Täter" womöglich eine Software ist, von der keiner mehr sagen kann, wer sie produziert hat? Welche bestehenden Gesetzen funktionieren?

Beispiel 2: Politik
Es gibt inzwischen einen Bundesverband KI, der in LinkedIN bemerkenswerter Weise als "Politische Organisation" auftritt. Spätestens bei der Bundesklausur am 5.-6. März 2023 wurde dort zwar der Aufbau eines europäischen Hochleistungs-Rechenzentrums für KI-Entwicklungen in den Fokus gerückt. Das LEAM-Projekt. In keiner Weise - obwohl politisch gefördert und als Thema sogar beim WEF-Forum in Davos vertreten - kommt hier noch der Mensch als prioritäres Wesen vor. In erster Linie geht es um Leistungsfähigkeit, am KI-Kuchen möglichst mitzunaschen und eine von der internationalen Marketing-Lobby der Global Player gehypten Durchdringung des globalen digitalen Raumes. Wenn man sich die Kommentare von Entwicklern und Firmen, also Menschen, die sich mit dem Thema wirklich befassen ansieht, werden maximal die mitteleuropäischen, zu hoch angesetzten Datenschutzempfindungen der Bürger als Hemmschuh betrachtet. Allein diese Tatsache zeigt, dass der Mensch von KI und deren Leistungsfähigkeit quasi selbstverständlich "überrollt" werden darf und auch soll.


Das hätte nicht so kommen müssen! Denn Deutschland war mit dem Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI) im Jahr 1988 ins Leben gerufen ganz früh dabei bei der KI-Musik. Inzwischen spricht man davon, dass Deutschland von China und den USA abgehängt wurde und den Zug völlig versäumt hat. Ich meine: Auch und gerade im Verbraucherschutz. Wer hätte den eher definieren sollen, als wir Europäer? Man bedenke den bisherigen Grundsatz: "Amerika kreiert, China kopiert, Europa reglementiert." Aus der Nummer kommen wir nicht mehr heraus, weil wir strukturell und als Gesellschaft im Ganzen zu langsam geworden sind. Uns bleibt nur die Reglementierung, um uns zu schützen ODER: Ein gänzlicher Paradigmenwechsel im Umgang mit KI in Verbindung mit Big Data.

Wie kann man KI denn eingrenzen?

KI ist eine fortschrittene, wirklich krasse Entwicklung, die seit einigen Jahren in Bereiche vorstößt, die davor nicht erkannt, ernst genommen, oder gar betreten wurden. Bei den Big Playern im Silicon Valley arbeiten Massen an fähigsten Kapazitäten überhaupt, insbesondere der Psychologie, Neurologie und Soziologie. Diesen ungeheuren Machtfaktor zu reglementieren braucht krasse Maßnahmen. Man muss aus dem Bahnhof, an dem man den Zug versäumt hat endlich raus. Ziel muss sein, dass man in ein schnelleres Prozedere als diesen fahrenden Zug kommt, dabei die Richtung sieht, wohin man muss, um den Zug anzuhalten und dem Lokführer die Regeln seiner weiteren Fahrt geben zu können. Am besten wartet man noch einen Bahnhof weiter, denn: Inzwischen müssen diese Regeln noch sauber und konsequent verankert werden, anstatt ein Regel-Gemurkse zu produzieren (Geflügeltes Stichwort: "Gekippt"). Entwicklungen in Europa zu bremsen ist sicher der falsche Weg. Rahmenbedingungen zu entwickeln und die "Fahrt" dann zu evaluieren ist das Gebot der Stunde. Ansonsten werden nicht nur Persönlichkeiten "digital desavouiert", sondern ganze Gesellschaften, weil jeder Einzelne künftig adressiert sein wird.

Was meinen Sie mit "desavouiert"?

KI findet, wenn bewusst angesetzt mehr über uns heraus, als wir selbst. Ist das ein Fortschritt? Ich meine: Nein, weil das dem Naturell des Menschen widerspricht. Es hat auch nichts mit Intelligenz zu tun. Hier folgt nun mein zentraler Satz, den ich schon 2010 formulierte: "KI wird der menschlichen Intelligenz erst dann das Wasser reichen können, wenn der Mensch weitestgehend sich selbst degradiert hat - mit anderen Worten: auf eine niedrigere Ebene verdummt ist." Es ist erstmals in der Menschheit so, dass gesammelte Daten von jemanden verstanden und interpretiert und in persönliche Empfehlungen umgewandelt werden, der/die nicht Mensch ist. Und zwar in der Konsequenz, dass sich ein Soziales Miteinander entwickelt, welches nicht mehr vom Menschen als Souverän mit seinen eigenen Prioritäten selbst entschieden wurde, sondern von einigen Wenigen, die in beim KI ganz oben stehen. Je nachdem wie KI anprogrammiert, algorithmisiert oder das suchende System mit "ja" bzw. jaja bzw. jajaja belohnt und gewichtet wird, umso mehr arbeitet es sich in immer neuere Levels in immer weitere Komplexitäten hoch. Mit den Priorisierungen der Suche kann man viel erreichen, aber auch viel anstellen und zerstören.

Wenn es allerdings dann wirklich dazu kommt, dass die virtuell vorgeschlagene Handlungsweise für eine Abfrage so detailliiert, nahe an "echt" ist, zugleich der Nutzer sich darauf verlässt und es übernimmt, wird der betroffene Mensch umgehend zum Systemsklaven verkommen, mit einer erodierenden persönlichen Souveränität. Dazu wird er über kurz oder lang völlig unfähig, ohne technische Hilfsmittel, im höchsten Falle KI, eigenständig durchs Leben zu kommen oder gar Entscheidungen zu treffen. Stichwort: "Betreutes Leben". KI kann beides: Helfen und zugleich unterlaufen. KI ist hoch subversiv. Wir haben den Beweis durch das Smartphone bereits erfahren. Viele sagen, das alleine wäre schon eine Katastrophe und finden die veränderten Sozialverhalten kontraproduktiv. Doch sagen noch mehr, dass man "damit leben muss". Das bedeutet: Wir sind "sturmreif ge-Appt" bereits jetzt bereit, sich
in unserem Sozialverhalten einer Technologie unterzuordnen, und nicht mehr in Interaktion durch/mit/zu Mitmenschen. Das ist der dramatischste Dammbruch hinein in eine Degradierung der menschlichen Spezies und der eigenen Souveränität. KI ist für alle Regeln auf die sich die Menschheit verständigt hat, disruptiv. Und das Stand Heute auch noch anarchisch ohne adressierbare Verantwortlichkeit.

Doch es gibt ja noch eine Möglichkeit der Selbstbeschränkung. Kürzlich hat doch erst Apple Verantwortung übernommen und eine KI-unterstützte ChatGPT-E-Mail-App aus seinem Store verbannt!

Das ist hoch lobenswert von Apple. Doch alleine die Tatsache, dass Apple aus eigenem Ermessen solche Apps zulässt oder verbannt, ist für sich schon hochbrisant. Wer garantiert einen verbindlichen Standard? Politisch, Gesellschaftlich? Wie umfrangreich? Wie konsequent? Hausverstand wie ihn hier Apple - selbstverständlich medienwirksam - gezeigt hat, war das Kriterium. Apple bestimmte ein Kriterium mangels geltender Norm für so einen Fall selbst.

Es ist überdies bisher ein Einzelfall, der spätestens jetzt ein klares, wie einfach definiertes Regularium, und zwar global, auf den Plan rufen muss. Davon liest man weder in den Medien einen Aufschrei, noch erfährt man von vorrangingen Gesetzesinitiativen. Wir bewohnen vergleichsweise ein Haus, in dem andere bestimmen, ob es bei Schnee und Kälte ein Dach gibt oder nicht. Je nach Gutdünken. Diese "anderen" bestimmen sicher einen supergünstigen Preis, um sich sein Dach dauerhaft zu sichern, nicht wahr? Sicher gleich günstig, wie das Dach, für das sie selbst gesorgt und bereits bezahlt haben. Dazu weiß die KI natürlich alle Funktionen in ihrem Haus und macht ihnen das günstigste Angebot, um auch das Haus noch zu steuern. Wer solcher Logik wirklich folgt - und das tun bereit mit dem Phone viele, ist bereits Opfer.


Inwiefern wird KI das Smartphone und den PC ablösen?

Smartphones werden wie alle anderen Kommunikationstechnologien, die diese Tools nutzen nur mehr "Modems" mit deren angestammten Kommunikationsfunktionen sein. Hier wird sich nichts Neues mehr entwickeln. Wir werden allerdings das wirkliche Geschehnis mehr und mehr sprichwörtlich "nicht mehr in der Hand" haben. Warum? Weil wir auf unsichtbares, fremdgesteuertes "Machine Learning in Verschmelzung mit "KI-veredelter" Kommunikation angewiesen werden. Extrembeispiel: Jemand, der im Grunde über eine Sache nichts weiß, kann fast in Echtzeit das, was er sagen möchte derart mit Informationen auffetten, dass das Gegenüber womöglich keine Chance hat, die Person/Kommunikation noch real zu bewerten. Das können Smartphones in Echtzeit bekanntlich nicht. Siehe Sprachkultur in Chats, bei denen offenkundig wird, dass jemand z.B. seine Sprache gar nicht schreiben kann. Tools wie ChatGPT können das übertünchen.


Das klingt ziemlich endzeitlich. Glauben Sie dass der Mensch seine Persönlichkeit im Ganzen verlieren könnte?


Der Mensch ist ein höchstentwickeltes, in seinen Fähigkeiten nicht kopierbares, so vielseitig begabtes und in seinem Bauplan einzigartiges Wesen für sich. Man bezeichnet ihn nicht umsonst als Krone der Schöpfung. Wir kommen allerdings an eine Grenze, an der über hunderte Generationen gewachsene, angestammte Zivilisationsstrukturen sich aufzulösen drohen in einer künstlich "frisierten" Kommunikations- und Kulturblase. Diese virtuelle Welt ist bislang nur minimal hinterfragt blind und auch unkontrollierbar geleitet von maschinell erlernten Mehrheitslogiken und Gewichtungen, oftmals auch stark gewichteten Minderheitslogiken. Wir sprechen schon auch ein kleines Stück von einem "neuen menschlich veranlassten, maschinell kumulierten Schöpfungsprogramm" - Stichwort Transhumanismus - von dem man fix davonausgehen muss, dass die letztlich für den Einzelnen ein Risiko wie bei "Atomkraft und Atombombe" bedeutet.
Dazu habe ich in futurezone.at meine Meinung zu einem Artikel hinterlassen, in dem Geoffrey Hinton, der Urvater von OpenAI Angst um die Menschheit hat.

Schlüssel für die ganzen KI- Entwicklungen sind Daten und deren Verarbeitungen. Was bedeutet das alles Ihrer Meinung nach für die Menschen in der Kommunikation?

Wir sind am zentralen Punkt. Big Data hat enorme Fähigkeiten an Wirkung und unerwünschten Nebenwirkungen in alle unsere Lebensbereiche. Jeder von uns hat schon irgendwo seinen Abdruck hinterlassen. KI schärft diesen Abdruck mit jeder Information mehr, ohne dass es viele bezahlende Menschen dazu braucht. Mit jeder Schärfung wird es möglich, dieses zweite Ich im Netz noch "echter" abzubilden. Cambrigde Analytica Tools beim FB-Skandal waren, Software wie Palantir sind unglaublich präzise Werkzeuge, die Daten von Personen in durchfrisierte Profile zusammenschaufelt, deren autorisierter, vor allem aber unautorisierter Gebrauch eine echte Gefahr sind. Die KI-Programme und deren Output wachsen mit diesen Informationen selbst an diesem Höchstniveau gemessen jeden Tag exponentiell und das unvorstellbar schnell.

Muss man vor KI Angst haben? Kann man sich dem noch entziehen?
Was raten Sie dem einzelnen User, z.B. in einem Chat?

Auf jeden Fall: Keine Panik! Angst ist eine natürliche Schutzvorkehrung zum Sichern seiner Unversehrtheit. Panik führt fast immer zum Gegenteil, in allen Lebenslagen und Kulturkreisen. Viel mehr empfehle ich Selbstkontrolle! KI ist grundsätzlich keine Intelligenz sondern eine hochfähige, maschinell lernende Software. Der Name täuscht. Wir Menschen sind von Natur aus weitaus fähiger, was unseren eigenen Nutzen betrifft. Wir sind mit Persönlichkeit und Gefühlen ausgestattet. Wenn wir uns von KI-gesteuerten, kritischen Kommunikationsmethoden bewusst abgrenzen, können wir unsere eigenständige Ausdrucksweise weiter bewahren. Ansonsten werden wir feststellen, dass wir in der Kommunikation mehr und mehr "nicht mehr wir selbst" sind.

Voraussetzung zum Selbstschutz ist, dass man selbst ohne "unsichtbare" Hilfsmittel, wie Spracheingabe-Apps oder Textvorschläge oder Messenger Texte selbst einzugeben imstande ist. Nun könnte ich an dieser Stelle natürlich die Werbung für Emo2Type 10-Finger-Schreiben am Computer machen. Grundsätzlich gilt diese Empfehlung allerdings generell, gleich bei welchem Anbieter man Schnellschreiben auch immer nachhaltig erlernen mag.

Hat man es selbst in den 10 Fingern, und damit in Händen, ist man auch schnell genug, allgemein Gefordertes in hoher Qualität schriftlich zu kommunizieren. Zudem sehe ich für die verbale Kommunikation die klassische Telefonnummer bei konsequent ausgeschalteten MessengerApps.

Wie halten Sie den Umgang mit KI selbst?

Ich benutze kein whatsapp und von den sozialen Medien lediglich LinkedIn für geschäftliche Zwecke. Virtual Reality (VR) betrete ich aktiv nicht. Zuerst besaß ich kein Smartphone. Seit 2019 zwei. Eines für die Übersicht operativer Abläufe. Ein Zweites für meine Telefonate auf LineageOS ohne Internet, Google und weitere Apps. Die Werbungen und Phishingversuche in meinem privaten Spamordner sind um mehr als 95% reduziert. Mailverkehr habe ich nur noch auf eigenen Servern mit Adressen, die es auf die Whitelist schaffen. Allerdings befasse ich mit  KI für unsere Produktenwicklung. Hier gibt es vielleicht interessante Möglichkeiten.

Alleine, dass dies nötig ist, um nicht von disruptiven Informationen oder Funktionen täglich persönlich "zerlegt" oder fremdbestimmt zu werden zeigt, dass außerhalb der Industrie nicht viele IT-Innovationen zu unseren Gunsten gemacht sind.

Am Schluss die soziale Frage: Der Verlust der Interaktion mit Menschen in der Realität ist allerdings nicht durch KI verschuldet, oder?

Das liegt in der Tat nicht an KI. "Gemeinsam allein" oder auch nur "allein, allein" wurde in den letzten Jahrzehnten gesellschaftlich etabliert. Dieser Exodus aus der Realität hat sich lediglich mit den Jahrzehnten der Digitalisierung noch intensiver entwickelt. Es ist ein Resultat der letzten 50 Jahre, in denen sich Menschen immer mehr in eigene Welten flüchten konnten. PC, Gaming, Soziale Medien. Geistige Parallelwelten und Schizophrenie gab es schon immer. Doch nun sind Massen an Menschen durch die schier überwältigenden Anteile der Digitalen Angebote großteils verwirrt, oft willenlos, depressiv und letztlich dann füreinander müde. Wir sehen dies an Abermilionen von verwahrlosten Kindern, die von einem Medium ins andere torkeln. Dies hat sehr viele gesellschaftliche Gründe. Mit KI (AI) ist nun eine Technologie mit einer unheimlich exponentiellen Entwicklung geschaffen, mit dem der klare Verstand und die geschwächte Souveränität der Menschen nun in der Psyche "gestürmt" und mit "frisierten", die Realität oder gar Wahrheit vortäuschenden, sich anpassenden Empfehlungen programmiert wird.

Interview Ende.

Erstellung Fragenkatalog: Netzwerk 10-Finger-Schreiben
Antwort: Heinz Köberl

Verweise:

https://futurezone.at/netzpolitik/kuenstliche-intelligenz-geoffrey-hinton-google-warnung-bard-chatgpt/402432474

https://www.hrpraxis.ch/2023/02/die-20-gefahren-von-chat-gpt-von-denen-niemand-spricht.html

https://www.forschung-und-wissen.de/nachrichten/technik/kuenstliche-intelligenz-wird-den-menschen-ausloeschen-13376678

https://www.trendingtopics.eu/apple-hat-eine-chatgpt-e-mail-app-aus-dem-app-store-verbannt/

Hinterlasse einen Kommentar

Bitte beachten Sie, dass Kommentare vor der Veröffentlichung freigegeben werden müssen