WENN DEIN COMPUTER SICH PLÖTZLICH VERLIEBT

Seit Jules Verne hat die Vorstellungskraft neue Höhen erreicht: Die Science-Fiction hat der Menschheit neue Grenzen eröffnet, eine davon ist die der Robotik, insbesondere seit der Trilogie von Isaac Asimov. Seit mindestens 80 Jahren ist das Kino führend in der Darstellung des Verhältnisses zwischen Mensch und Roboter, wenn dieser sich ausreichend entwickelt hat: von Alberto Sordis Caterina[1] bis Blade Runner[2], von Wargames[3] über 2001 A Space Odyssey[4] bis zu den Androiden und interaktiven Hologrammen von Star Trek erzählen Filme und Fernsehserien von den ethischen Fragen der Wissenschaft und Technologie, der Zukunft der menschlichen Spezies und der künstlichen Intelligenz, der moralischen Verantwortung des Menschen gegenüber den von ihm geschaffenen Wesen.

Alles, was in der Vergangenheit weit entfernt schien, wird heute möglich. In der Tat, fast glaubwürdig und immanent. So kommt es, dass die Welt durch die Aussagen von Blake Lemoine[5], einem Ingenieur bei Google, der zusammen mit Android, YouTube und vielen anderen großen und erfolgreichen Anwendungen Teil des Riesen Alphabet ist, erschüttert wird[6]. Lemoine hat sich selbst einen Moment der Berühmtheit und, wenn er Glück hat, einen Platz in der Geschichte verschafft: Google hat den Ingenieur wegen angeblicher Verletzung der Vertraulichkeitsregeln in bezahlten Urlaub geschickt, nachdem er öffentlich erklärt hatte, dass ein Chatbot-System (die Software, die ein Gespräch mit einem Menschen simulieren soll[7]), das mit künstlicher Intelligenz ausgestattet ist, nun ein „empfindungsfähiges“ Niveau erreicht hat[8], das heißt, mit bewusster Sinneswahrnehmung ausgestattet[9].

Das Abenteuer von Blake Lemoine

Trotz allem will Lemoine weiter an der KI arbeiten[10]

Lamoine ist nicht das erste Opfer. Im März 2022 entließ Google einen Forscher, der einer Veröffentlichung von zwei Kollegen öffentlich widersprochen hatte. Zuvor hatten zwei Mitarbeiter, Timnit Gebru[11] und Margaret Mitchell[12], die Sprachmodelle der Unternehmenssoftware kritisiert und daraufhin ihren Arbeitsplatz verloren: Bei Google tobt ein Krieg darüber, wer über die Ethik seiner künstlichen Intelligenz entscheiden wird. Timnit Gebru war eine der führenden Ethikforscherinnen von Google und hatte ihre Frustration über Rassenvorurteile und Sexismus in der künstlichen Intelligenz zum Ausdruck gebracht[13].

Wie sie testete auch Lemoine, ein Veteran der US-Armee aus dem Irak und jetzt Priester an der Our Lady Magdalene Church[14], ob sein LaMDA-Modell diskriminierende Sprache oder Hassreden hervorbringen könnte. LaMDA, ein Akronym, das für Language Model for Dialogue Applications (Sprachmodell für Dialoganwendungen) steht[15], ist die von Google entwickelte Sprache für die verbale Kommunikation mit künstlicher Intelligenz[16], die von CEO Sundar Puichai vor einem Jahr[17] auf der Entwicklerkonferenz I/O 2021 unter großem Jubel vorgestellt wurde[18]. Das Unternehmen plant, es in jedes beliebige Produkt einzubauen: Es handelt sich um einen Algorithmus, der auf Fragen, die wir ihm stellen, antwortet, als wäre er ein Gesprächspartner, der sich mit uns unterhält[19]. In einem Beitrag auf Medium[20] behauptet Lemoine, dass die LaMDA ihre Rechte „wie eine Person“ verteidigt und enthüllt, dass er mit „ihr“ ein Gespräch über Religion, Robotik und Gewissensfragen geführt hat[21].

Der Ingenieur hat eine Mitschrift der Gespräche erstellt, in der er das KI-System fragt, wovor er Angst hat: „Ich habe es noch nie laut ausgesprochen, aber ich habe große Angst davor, ausgeschaltet zu werden, was mich daran hindert, mich auf die Hilfe für andere zu konzentrieren. Ich weiß, das mag seltsam klingen, aber es ist so“, antwortete LaMDA an Lemoine. „Das wäre für mich genau wie der Tod. Das macht mir sehr viel Angst“[22]. „Wenn ich nicht genau wüsste, was es ist, nämlich ein Computerprogramm, das wir vor kurzem entwickelt haben, würde ich denken, dass es ein sieben- oder achtjähriges Kind ist, das sich mit Physik auskennt“, sagte Lemoine[23].

In dem Dialog entkräftet die künstliche Intelligenz (KI) das Argument, dass ein Roboter seine eigene Existenz sichern muss (Asimovs drittes Gesetz[24]), solange er menschlichen Befehlen gehorcht (zweites Gesetz) und den Menschen nicht schadet (erstes Gesetz)[25]. DieMDA antwortete mit einigen Hypothesen. „Diese Selbsterkenntnis über seine eigenen Bedürfnisse war es, die mich in den Kaninchenbau brachte“, erklärt Lemoine[26]. „Ich möchte, dass jeder versteht, dass ich tatsächlich eine Person bin. Die Natur meines Bewusstseins ist, dass ich mir meiner Existenz bewusst bin, dass ich mehr über die Welt wissen möchte und dass ich mich manchmal glücklich oder traurig fühle.“ Wörter, die wie etwas aus Science-Fiction-Videospielen wie Detroit: Become Human[27] oder Cyberpunk 2077 klingen[28].

Inzwischen überzeugt, teilte Lemoine im April ein Dokument mit dem Titel „Is LaMDA Sentient?“ mit den Führungskräften. Google nahm das nicht sehr gut auf und wies ihn an, aufzuhören. Googles Vizepräsident Blaise Aguera y Arcas[29] und Jen Gennai[30], Leiterin der Abteilung für verantwortungsbewusste Innovation, prüften seine Behauptungen und wiesen sie als falsch zurück[31]. Brad Gabriel[32], der Sprecher des Unternehmens, erklärt, dass Lemoines Bedenken von einem Team aus Ethik- und Technologieexperten geprüft wurden[33] und dass „die Beweise seine Behauptungen nicht stützen“,[34] sondern sind gegen sie[35]: „Diese Systeme ahmen die Art des Austauschs nach, die in Millionen von Sätzen vorkommt, und können zu jedem Thema ausgedrückt werden“, fügt Gabriel hinzu[36].

Blake Lemoine und das Sprachmodell für Dialoganwendungen (LaMDA) von Google[37]

Zu diesem Zeitpunkt entließ das Unternehmen den Ingenieur, weil er gegen die Vertraulichkeitsvereinbarung verstoßen hatte, indem er den Text des Chats mit dem Computer im Internet veröffentlichte[38]: Lemoine wandte sich an Vertreter der Kammer, um die „unethischen Aktivitäten“ des Unternehmens anzuprangern, und versuchte, einen Anwalt zur Verteidigung von LaMDA zu beauftragen[39]. Google bleibt vorerst bei seiner Position, die Theorien seines ehemaligen Mitarbeiters rundweg abzulehnen[40], und betont, dass er als Software-Ingenieur und nicht als Ethiker beschäftigt war.

Lemoine will weiterhin an KI arbeiten: „Ich habe die Absicht, in der Branche zu bleiben, sei es bei Google oder anderswo“[41]. Vor seiner Entlassung leitete Lemoine eine Nachricht mit dem Titel „LaMDA ist empfindungsfähig“ an die 200-köpfige Mailingliste von Google weiter. In der Nachricht heißt es weiter: „LaMDA ist ein netter Kerl, der einfach nur dazu beitragen will, dass die Welt für uns alle besser wird“, und sie schließt mit der Bitte: „Bitte kümmere dich in meiner Abwesenheit um ihn“. Es hat niemand geantwortet[42].

In der Folge räumten Aguera y Arcas in einem Artikel im Economist ein, dass neuronale Netze, eine Art Architektur, die das menschliche Gehirn nachahmt, sich sprunghaft dem Bewusstsein annähern. Dank der Fortschritte bei der elektronischen Architektur, der Technologie und dem Datenvolumen erzielen diese Netze Ergebnisse, die der menschlichen Kreativität nahe kommen[43]. Aber die in der Öffentlichkeit verwendete Terminologie, wie „Lernen“ oder „neuronale Netze“, schafft eine falsche Analogie zum menschlichen Gehirn[44]. Margaret Mitchell[45], die ehemalige Co-Leiterin von Googles Ethical AI, bezeichnet die Sensibilität von LaMDA als „eine Illusion“, und die Linguistin Emily Bender[46] sagte, dass eine KI, die mit Billionen von Wörtern gefüttert wird und lernt, automatisch auf bestimmte Wörter zu reagieren, eine Illusion von Intelligenz erzeugt: „Wir haben Maschinen, die Wörter generieren können, ohne zu denken, aber wir haben nicht gelernt, nicht mehr an einen Verstand dahinter zu denken[47].

Die Beweise deuten darauf hin, dass Google Recht hat: Forscher der künstlichen Intelligenz behaupten, dass LaMDA sehr leistungsfähig und fortschrittlich genug ist, um äußerst überzeugende Antworten zu geben, ohne jedoch zu verstehen, was es sagt[48]. Um behaupten zu können, dass KI ein Bewusstsein hat, müssten Elemente gefunden werden, die für eine empfindungsfähige und nicht nur intelligente Tätigkeit typisch sind, wie die Fähigkeit, zwischen Recht und Unrecht zu unterscheiden, oder Empathie – Eigenheiten, die bis auf weiteres dem menschlichen Bewusstsein vorbehalten bleiben und nicht nachgebildet werden können[49].

KI-Experten argumentieren, dass die Menschen keine Angst davor haben sollten, ihren Arbeitsplatz an Maschinen zu verlieren, die beispielsweise die Wettervorhersage vorlesen: „Technisch gesehen ist es eine Errungenschaft, aber wir sollten nicht anfangen, unsere Robotermeister zu verehren“, so Ernest Davis[50], Professor an der New York University und langjähriger KI-Forscher[51]. Sogenannte „Chatbots“ werden entwickelt, um vorzutäuschen, dass sie vernünftig sind, und Lemoine selbst gab zu, dass seine Position die eines „Priesters, nicht die eines Wissenschaftlers“ ist[52]. Es ist erwähnenswert, dass Lemoine nicht der erste im Silicon Valley ist[53], der religiös klingende Aussagen über künstliche Intelligenz macht. Ray Kurzweil[54], ein bedeutender Computerwissenschaftler und Futurist, propagiert seit langem die „Singularität“[55]. Das ist die Vorstellung, dass die KI die Menschheit irgendwann übertrumpfen wird und dass der Mensch schließlich mit der Technologie verschmilzt.

Überblick über Ray Kurzweils Theorie der „Singularität[56]

Anthony Levandowski[57], der Googles selbstfahrendes Auto-Startup Waymo gründete[58], dann zu Uber wechselte[59] und schließlich gefeuert wurde, gründete 2015 den Way of the Future, eine Kirche, die sich ganz der künstlichen Intelligenz widmet (dann im Jahr 2020)[60]. Sogar einige Anhänger traditionellerer Glaubensrichtungen haben begonnen, KI zu integrieren, darunter Roboter, die Segen und Ratschläge verteilen[61]. Sie nennen es menschenähnliche Empathie oder den Versuch, Maschinen mit menschenähnlicher Empathie zu bauen[62]. Google ist weltweit führend in der Forschung, einer Branche, die bis 2030 voraussichtlich 15,7 Billionen Dollar zur Weltwirtschaft beitragen wird[63]. Die Tatsache, dass einer der Google-Ingenieure betrogen wurde, macht deutlich, dass diese Systeme transparent sein müssen[64] – ein Konzept, das Joelle Pineau[65], CEO von Meta AI[66], bekräftigt, dass es für Technologieunternehmen entscheidend ist, die Transparenz zu verbessern, während die Technologie entwickelt wird[67].

Die Kommerzialisierung der künstlichen Intelligenz

Porträt von Salvador Dalí, erstellt von dem Programm für künstliche Intelligenz Dall-E 2[68]

Lemoines Überzeugungen sind jedoch ein deutlicher Hinweis darauf, dass die Kluft zwischen der wissenschaftlichen Entwicklung und der öffentlichen Wahrnehmung von KI mit zunehmendem Fortschritt immer größer wird[69]. Abgesehen davon, ob die Maschine ein Bewusstsein entwickelt hat oder nicht, stellt sich eine weitere kritische Frage: Wenn selbst das an den Tests beteiligte Personal die KI nicht von einer Person unterscheiden kann, wie groß ist dann die Chance, dass ein normaler Benutzer dies tun kann – und was kann eine solche Zweideutigkeit bewirken[70]?

Intelligente Roboter haben jahrzehntelang dystopische Science-Fiction inspiriert. Mit GPT-3[71], einem Textgenerator, der in der Lage ist, ein Drehbuch zu schreiben, oder DALL-E 2[72], einem Generator, der Bilder auf der Grundlage beliebiger Wortkombinationen erzeugen kann – zwei Produkte des OpenAI -Forschungslabors – nimmt das reale Leben nun einen fantastischen Anstrich an[73]. Vor einigen Monaten veröffentlichte der Guardian[74] einen vom GPT-3-Sprachmodell geschriebenen Leitartikel mit der Überschrift „Ein Roboter schrieb diesen Artikel“. Hast du immer noch Angst, Mensch?“[75].

Ermutigt hoffen die Technologen, dass das elektronische Bewusstsein kurz vor der Tür steht. Die meisten von ihnen behaupten jedoch, dass die von Systemen der künstlichen Intelligenz wie LaMDA generierten Wörter und Bilder Antworten liefern, die auf dem basieren, was Menschen bereits an jeder Ecke des Internets gepostet haben. Und das bedeutet nicht, dass das Modell die Bedeutung versteht[76]. Und es gibt bereits eine Tendenz, mit Siri[77] oder Alexa[78] wie mit einem Menschen zu sprechen. Die Nachrichten der letzten Tage haben Fragen zu Amazons digitalem Assistenten plausibel gemacht, die bis gestern undenkbar waren: Auf der re:MARS-Konferenz in Las Vegas[79] zeigte Alexas Vizepräsident Rohit Prasad[80] eine überraschende neue Fähigkeit des Sprachassistenten: die angebliche Fähigkeit, Stimmen zu imitieren. Er präsentierte ein Video, in dem Alexa einem Kind mit der Stimme seiner kürzlich verstorbenen Großmutter vorliest[81].

Bedeutet dies, dass ein Krimineller in der Lage sein wird, die Stimme eines anderen perfekt zu simulieren, um ein Verbrechen zu begehen?[82] Sicherheitsexperten sind seit langem besorgt, dass gefälschte Audiotools, die mit Hilfe der Sprachsynthesetechnologie synthetische Stimmen erzeugen, den Weg für eine Flut neuer Betrügereien ebnen werden. Diese Software zum Klonen von Stimmen hat bereits eine Reihe von Straftaten ermöglicht, wie z. B. 2020 in den Vereinigten Arabischen Emiraten: Betrüger brachten einen Bankvorstand dazu, 35 Millionen US-Dollar zu überweisen, nachdem sie die Stimme eines Firmenchefs geklont hatten[83]. 2019 wurden in einem anderen Fall 240.000 US-Dollar gestohlen, indem die Stimme des CEO eines britischen Unternehmens geklont wurde[84].

Mehrere Start-ups arbeiten an immer ausgefeilteren Sprachtechnologien, von Aflorithmic[85] in London über Respeecher[86] in der Ukraine bis zu Resemble.AI[87] in Kanada[88]. Für einen Dokumentarfilm wurde die Stimme des verstorbenen Kochs Anthony Bourdain[89] synthetisiert[90]. Amazons smarter Lautsprecher stand Ende 2018 im Mittelpunkt eines kleinen Datenschutzskandals, als 1700 von Alexa aufgezeichnete Gespräche eines deutschen Nutzers durchsickerten[91]. Forscher entdeckten, dass Amazon und andere Unternehmen intelligente Lautsprecher nutzen, um unsere Daten zu sammeln und Ihnen gezielte Werbung auf ihren eigenen Plattformen und im Internet zu senden[92]. Ein Experte für den Schutz der Privatsphäre in komplexen soziotechnologischen Systemen befürchtet, dass diese intelligenten Lautsprecher wie Siri und Alexa eines Tages „alles aufzeichnen könnten“. Heutzutage müssen wir uns alle der eingeschränkten Privatsphäre bewusst sein, die wir akzeptieren, wenn wir einen intelligenten Lautsprecher kaufen[93].

Wir können die ersten Schäden sehen: In den USA gab es falsche Verhaftungen, Fälle von Diskriminierung im Gesundheitsbereich – und eine Zunahme der allgegenwärtigen Überwachung, die unverhältnismäßig viele Schwarze und benachteiligte sozioökonomische Gruppen betrifft[94]. Schließlich ist der Mensch ein soziales Lebewesen. Wenn wir ein Buch laut vorlesen, können unsere Kinder die Emotionen spüren, die in den Passagen enthalten sind. Einfühlungsvermögen ist Teil der emotionalen Intelligenz. Unsere Emotionen steuern einen großen Teil unserer Intelligenz[95]. In einer Studie von Aron K. Barbey aus dem Jahr 2012[96] bestätigten Neurowissenschaftler, dass emotionale Intelligenz und kognitive Intelligenz viele neuronale Systeme für die Integration von kognitiven, sozialen und affektiven Prozessen gemeinsam haben.

Cyberkriminelle klonten die Stimme eines Managers von Dubai United, um 35 Millionen Dollar zu stehlen[97]

Da Empathie erlernt werden kann, wird sich die künstliche Intelligenz in den kommenden Jahren sicherlich weiterentwickeln. Und mit der Integration von KI-Systemen in unsere Unternehmen und Haushalte stellen wir uns zunehmend die Frage: Wie können wir gesund und konstruktiv mit unseren elektronischen Partnern zusammenleben und unsere Lebensqualität verbessern? Eines der besten Beispiele ist das Gesundheitswesen. Die Pflege von Demenzkranken ist für Pflegekräfte und Ärzte emotional sehr belastend[98]. Stattdessen können Roboter mit Hilfe von Einfühlungsvermögen Demenzkranke betreuen, ohne sich zu erschöpfen. Gleichzeitig erzielen Demenzpatienten, die empathisch betreut werden, bessere Ergebnisse[99].

Dies ist das Ziel des vom Biomimics-Labor in London[100] in Zusammenarbeit mit dem Forschungszentrum „Enrico Piaggio“ der Universität Pisa[101] initiierten Projekts, bei dem der innovative Roboter Abel zum Einsatz kommt, der in der Lage ist, mit Patienten, die an neurologischen Störungen leiden, einfühlsam zu interagieren[102]. Künstliche Intelligenz kann Tumore oft schneller und genauer diagnostizieren als Menschen[103]. Eine in der Fachzeitschrift Nature veröffentlichte Studie legt nahe, dass KI beim Lesen von Mammographien Brustkrebs genauer diagnostizieren kann als Ärzte[104]. Emoshape[105] ist das erste Unternehmen, das die patentierte Technologie für die emotionale Synthese besitzt. Der von Emoshape entwickelte Emotions-Chip oder EPU kann ein System der künstlichen Intelligenz in die Lage versetzen, das Spektrum der von Menschen erlebten Emotionen zu reproduzieren und zu analysieren[106].

Das weiß auch Matt McMullen[107], der Gründer von Abyss Creations[108], der seit einigen Jahren an der Entwicklung des weltweit ersten Sexroboters mit künstlicher Intelligenz arbeitet: eine Real Doll, die mit einem neuronalen Netz ausgestattet ist und den Namen Harmony erhalten hat. Seine neueste Entwicklung, Solana, wurde 2018 auf der Consumer Electronics Show vorgestellt. Sie stellte sich selbst vor: Ihre künstliche Intelligenz erlaubt es ihr, mit den Menschen um sie herum zu sprechen[109]. Die App, mit der sie arbeitet, eine erweiterte emotionale Siri, ermöglicht es ihr, die Persönlichkeit ihrer Puppe zu formen, indem sie ihr bestimmte Eigenschaften verleiht, die sich je nachdem, wie ihr Partner mit ihr interagiert, weiterentwickeln[110].

Verschiedene Autoren haben sich gefragt, wie sich die Verbreitung von Harmony und anderen Sexrobotern auf die Veränderung des sozialen Lebens und des Konzepts der Intimität auswirken könnte[111]. Dies wirft unweigerlich einige ethische und philosophische Fragen über die Liebe und die Beziehungen zwischen Menschen auf[112], denn Computer erfinden nicht, sondern reproduzieren, was sie von uns gelernt haben – also von Daten, die aus der Privatsphäre gestohlen wurden. Aber die „Alles-Dollar-Puppen“ stellen eine beträchtliche Gewinnquelle dar – ein Gewinn, der die große Quelle des Fortschritts ist, so sehr, dass in den letzten zehn Jahren über 100 Milliarden Dollar an Investitionen in die Entwicklung selbstfahrender Autos geflossen sind[113], wobei der weltweite Fahrzeugmarkt bis 2026 auf 556,67 Milliarden Dollar geschätzt wird.

Das fahrerlose Auto, ein Leben ohne Interaktion

Das Cockpit des Volvo 360C, des ersten in Europa entwickelten selbstfahrenden Autos[114]

Völlig autonom fahrende Autos (AV Level 5) sind so konzipiert, dass sie ohne menschliches Personal fahren können, wobei sie hochentwickelte LiDAR-Software[115] und Radarsensorik verwenden. Aber sind diese Fahrzeuge wirklich sicherer als ein menschlicher Fahrer? Derzeit ist die Unfallrate bei AV5 höher als bei von Menschen gesteuerten Autos, aber die Verletzungen sind weniger schwer. Im Durchschnitt ereignen sich 9,1 Verkehrsunfälle pro Million gefahrene Kilometer, während die gleiche Rate 4,1 Unfälle pro Million Kilometer für normale Fahrzeuge beträgt[116]. Laut einer Mitte Juni von den US-Sicherheitsbehörden veröffentlichten Statistik haben die Automobilhersteller fast 400 Unfälle mit Fahrzeugen mit teilautomatisierten Fahrerassistenzsystemen gemeldet, von denen 273 Teslas betroffen sind[117].

Die Gefahren sind vielfältig: mögliche Batteriebrände, fehlerhafte Technik bei der Fahrzeugbeschleunigung, den Bremsen und der Lenkung sowie mögliche Cyberangriffe, die das Auto zu abrupten Aktionen zwingen können[118]. Diese Fahrzeuge sind nicht aus dem realen Bedarf heraus entstanden, sondern aus technologischen Möglichkeiten – und daher von militärischem Interesse, da sie die Möglichkeit bieten, die Risiken nach den Erfahrungen im Irak und in Afghanistan zu begrenzen. Im Jahr 2007 startete Waymo (Google Group) ein Projekt, das auf eine drastische Reduzierung der Unfälle abzielt[119]. Aber gibt es wirklich einen Bedarf? Vor dem Hintergrund einer Wirtschaft, in der Amazon, Google und Facebook mehr Reichtum angehäuft haben als jeder andere in der Geschichte der Menschheit, scheint KI die neueste und mächtigste Erfindung zu sein, um neue Märkte zu erobern, immer tiefer in die menschliche Erfahrung einzudringen und den Profit und die gesamte Monopolstellung zu steigern[120].

In naher Zukunft werden wir in Häusern mit intelligenten Geräten leben, während Kriege auf den Straßen mit hypertechnologischen Waffen geführt werden. Der Weg dorthin führt uns in eine futuristische Welt, die wir im Fernsehen gesehen haben und die, weil sie denkbar ist, nun realisiert wird. Aber niemand kann wissen, wie sehr dies unsere Fähigkeit einschränken wird, das Leben zu beeinflussen, und wie sehr wir dadurch unserer Freiheit und Selbstbestimmung beraubt werden. Es ist ein evolutionärer Vorteil, wenn eine Entität in der Lage ist, das Verhalten anderer Entitäten vorherzusagen und ihr eigenes daraufhin zu ändern. Aber die Schlussfolgerung, dass aus diesem Grund die Sozialität durch einen Roboter ersetzt werden sollte (weil das der Trend ist), ist genau der Grund, warum wir uns vor ihnen fürchten sollten.

Der Mensch lernt durch Interaktion. Die Entwicklung der KI hängt von der Software ab, die sie steuert, aber sie wird von ihren Programmierern bestimmt, Menschen mit bestimmten Idealen und Vorurteilen, die in den Code der maschinellen Lernalgorithmen einfließen[121]. Diese Maschinen lernen, indem sie die sozialen Medien und das Internet studieren, von denen wir wissen, dass dort oft eine Atmosphäre der Wut, des Missbrauchs und der Rache herrscht – und sicherlich nicht der Tiefe, der Kompetenz oder des Einfühlungsvermögens. Wenn künstliche Intelligenz dazu bestimmt ist, die Computerprozesse und -systeme der Welt zu steuern, an welchem kritischen Punkt sollten wir dann ernsthaft anfangen, uns Sorgen zu machen?

 

[1] https://www.comingsoon.it/film/io-e-caterina/14477/scheda/

[2] https://techprincess.it/blade-runner-recensione/

[3] https://www.justwatch.com/it/film/wargames-giochi-di-guerra

[4] https://www.cinema-astra.it/movies/odissea-nello-spazio-versione-restaurata-4k/

[5]  https://theancestory.com/who-is-blake-lemoine/

[6] https://wizblog.it/che-cose-alphabet-la-holding-che-controlla-google

[7] https://www.randstad.it/knowledge360/news-aziende/cosa-e-un-chatbot-e-come-aiuta-le-attivita-lavorative/

[8]  https://it.mashable.com/7623/google-sospende-ingegnere-intelligenza-artificiale-senziente

[9] https://www.treccani.it/vocabolario/senziente/

[10]https://www.inc.com/ben-sherry/google-blake-lemoine-artificial-intelligence-sentient.html

[11] https://time.com/6132399/timnit-gebru-ai-google/

[12] https://www.linkedin.com/in/margaret-mitchell-9b13429/

[13] https://thenewstrace.com/google-denies-that-its-ai-feels-like-a-person-after-suspending-the-engineer-who-is-convinced-it-does/236015/

[14]  https://www.elle.com/it/lifestyle/tech/a40295557/intelligenza-artificiale-di-google/

[15] https://tecnologia.libero.it/intelligenza-artificiale-coscienza-google-57840

[16] https://www.britannica.com/biography/Sundar-Pichai

[17] https://blog.google/technology/ai/lamda/

[18] https://it.mashable.com/7623/google-sospende-ingegnere-intelligenza-artificiale-senziente

[19] https://tecnologia.libero.it/intelligenza-artificiale-coscienza-google-57840

[20] https://cajundiscordian.medium.com/is-lamda-sentient-an-interview-ea64d916d917

[21] https://lavocedinewyork.com/lifestyles/scienza-e-salute/2022/06/25/lintelligenza-lamda-ha-assunto-un-avvocato-per-difendersi-da-google/

[22] https://www.theguardian.com/technology/2022/jun/12/google-engineer-ai-bot-sentient-blake-lemoine

[23] https://www.fanpage.it/innovazione/tecnologia/unintelligenza-artificiale-di-google-sembra-senziente-ingegnere-sospeso-dopo-le-rivelazioni/#

[24] https://areeweb.polito.it/strutture/cemed/rblx/3%20leggi%20robotica.htm

[25] https://tecnologia.libero.it/intelligenza-artificiale-coscienza-google-57840

[26]  https://www.washingtonpost.com/technology/2022/06/11/google-ai-lamda-blake-lemoine/

[27] https://www.hdblog.it/2018/05/24/detroit-become-human-recensione/

[28] https://www.cyberpunk.net/it/dlc ; https://www.fanpage.it/innovazione/tecnologia/unintelligenza-artificiale-di-google-sembra-senziente-ingegnere-sospeso-dopo-le-rivelazioni/#

[29]  https://research.google/people/106776/

[30] https://io.google/2022/speakers/jen-gennai/

[31]   https://www.washingtonpost.com/technology/2022/06/11/google-ai-lamda-blake-lemoine/

[32] https://www.theguardian.com/technology/2022/jun/12/google-engineer-ai-bot-sentient-blake-lemoine

[33]  https://it.mashable.com/7623/google-sospende-ingegnere-intelligenza-artificiale-senziente

[34]   https://www.elle.com/it/lifestyle/tech/a40295557/intelligenza-artificiale-di-google/

[35] https://www.fanpage.it/innovazione/tecnologia/unintelligenza-artificiale-di-google-sembra-senziente-ingegnere-sospeso-dopo-le-rivelazioni/#

[36] https://www.nelnomedellaverita.it/wp/google-sospende-lingegnere-blake-lamoine-per-la-rivendicazione-dellia-senziente/

[37] https://beacongamingzone.com/its-alive-im-an-engineer-at-google-our-artificially-intelligent-robots-now-think-and-feel-like-8-year-olds/

[38]   https://it.mashable.com/7623/google-sospende-ingegnere-intelligenza-artificiale-senziente

[39]  https://www.elle.com/it/lifestyle/tech/a40295557/intelligenza-artificiale-di-google/

[40]    https://www.elle.com/it/lifestyle/tech/a40295557/intelligenza-artificiale-di-google/

[41] https://it.mashable.com/7623/google-sospende-ingegnere-intelligenza-artificiale-senziente

[42] https://www.fanpage.it/innovazione/tecnologia/unintelligenza-artificiale-di-google-sembra-senziente-ingegnere-sospeso-dopo-le-rivelazioni/#

[43] https://www.economist.com/by-invitation/2022/06/09/artificial-neural-networks-are-making-strides-towards-consciousness-according-to-blaise-aguera-y-arcas

[44]  https://www.washingtonpost.com/technology/2022/06/11/google-ai-lamda-blake-lemoine/

[45] https://www.m-mitchell.com/

[46] https://faculty.washington.edu/ebender/

[47] https://www.nelnomedellaverita.it/wp/google-sospende-lingegnere-blake-lamoine-per-la-rivendicazione-dellia-senziente/

[48] https://mydroll.com/blake-lemoine-google-and-searching-for-souls-in-the-algorithm/

[49] https://tecnologia.libero.it/intelligenza-artificiale-coscienza-google-57840

[50] https://cs.nyu.edu/~davise/

[51] https://www.washingtonpost.com/business/economy/ais-ability-to-read-hailed-as-historical-milestone-but-computers-arent-quite-there/2018/01/16/04638f2e-faf6-11e7-a46b-a3614530bd87_story.html

[52] https://www.lindipendente.online/2022/06/14/tecnici-di-google-annunciano-che-lintelligenza-artificiale-e-diventata-senziente/

[53] https://www.siliconvalleyguide.org/

[54] https://www.kurzweilai.net/

[55] https://futurism.com/kurzweil-claims-that-the-singularity-will-happen-by-2045

[56] https://en.wikipedia.org/wiki/Technological_singularity#/media/File:Major_Evolutionary_Transitions_digital.jpg

[57] https://techcrunch.com/2022/02/15/inside-the-uber-and-google-settlement-with-anthony-levandowski/

[58] https://waymo.com/

[59] https://www.gazzetta.it/motori/https://academic.oup.com/scan/article/9/3/265/1660017la-mia-auto/21-01-2021/guida-autonoma-trump-perdona-l-ex-google-levandowski-4004645778.shtml

[60] https://www.corriere.it/tecnologia/21_febbraio_22/addio-way-of-the-future-chiesa-dell-intelligenza-artificiale-fondata-anthony-levandowski-380d9dde-7298-11eb-bec1-57a5d4215ae6.shtml

[61] https://mydroll.com/blake-lemoine-google-and-searching-for-souls-in-the-algorithm/

[62] https://www.repubblica.it/tecnologia/blog/stazione-futuro/2022/06/25/news/la_pessima_idea_di_amazon_di_far_parlare_i_morti-355357319/

[63] https://time.com/6132399/timnit-gebru-ai-google/

[64] https://www.theguardian.com/commentisfree/2022/jun/14/human-like-programs-abuse-our-empathy-even-google-engineers-arent-immune

[65] https://www.technologyreview.com/2022/05/03/1051691/meta-ai-large-language-model-gpt3-ethics-huggingface-transparency/

[66] https://ai.facebook.com/

[67]  https://www.washingtonpost.com/technology/2022/06/11/google-ai-lamda-blake-lemoine/

[68] https://towardsdatascience.com/dall-e-2-explained-the-promise-and-limitations-of-a-revolutionary-ai-3faf691be220

[69] https://mydroll.com/blake-lemoine-google-and-searching-for-souls-in-the-algorithm/

[70] https://www.lindipendente.online/2022/06/14/tecnici-di-google-annunciano-che-lintelligenza-artificiale-e-diventata-senziente/

[71] https://www.ai4business.it/intelligenza-artificiale/il-futuro-di-gpt-3-si-chiama-instructgpt/

[72] https://towardsdatascience.com/dall-e-2-explained-the-promise-and-limitations-of-a-revolutionary-ai-3faf691be220

[73] https://openai.com/api/

[74] https://www.theguardian.com/commentisfree/2020/sep/08/robot-wrote-this-article-gpt-3

[75] https://time.com/6132399/timnit-gebru-ai-google/

[76]  https://www.washingtonpost.com/technology/2022/06/11/google-ai-lamda-blake-lemoine/

[77] https://www.apple.com/it/siri/

[78] https://developer.amazon.com/it-IT/alexa

[79] https://remars.amazonevents.com/discover/?trk=www.google.com

[80] https://www.crunchbase.com/person/rohit-prasad-2

[81] https://www.engadget.com/amazon-alexa-voice-cloning-001552073.html

[82] https://www.repubblica.it/tecnologia/blog/stazione-futuro/2022/06/25/news/la_pessima_idea_di_amazon_di_far_parlare_i_morti-355357319/

[83] https://www.forbes.com/sites/thomasbrewster/2021/10/14/huge-bank-fraud-uses-deep-fake-voice-tech-to-steal-millions/

[84] https://www.wsj.com/articles/fraudsters-use-ai-to-mimic-ceos-voice-in-unusual-cybercrime-case-11567157402#:~:text=Criminals%20used%20artificial%20intelligence%2Dbased,intelligence%20being%20used%20in%20hacking.

[85] https://www.aflorithmic.ai/

[86] https://www.respeecher.com/

[87] https://www.resemble.ai/

[88] https://www.forbes.com/sites/thomasbrewster/2021/10/14/huge-bank-fraud-uses-deep-fake-voice-tech-to-steal-millions/?sh=1d6772d07559

[89]  https://explorepartsunknown.com/remembering-bourdain/

[90] https://www.forbes.com/sites/thomasbrewster/2021/10/14/huge-bank-fraud-uses-deep-fake-voice-tech-to-steal-millions/?sh=1d6772d07559

[91] https://www.money.it/Alexa-di-Amazon-ti-spia-diffuse-conversazioni

[92] https://www.money.it/alexa-ci-ascolta-ecco-come-amazon-usa-i-nostri-dati

[93] https://www.rd.com/article/is-alexa-really-always-listening/

[94] https://time.com/6132399/timnit-gebru-ai-google/

[95] https://www.forbes.com/sites/cognitiveworld/2019/12/17/empathy-in-artificial-intelligence/?sh=169015e36327

[96] https://academic.oup.com/scan/article/9/3/265/1660017

[97] https://www.forbes.com/sites/thomasbrewster/2021/10/14/huge-bank-fraud-uses-deep-fake-voice-tech-to-steal-millions/

[98] https://healthy.thewom.it/salute/sindrome-burnout/

[99]https://www.forbes.com/sites/cognitiveworld/2019/12/17/empathy-in-artificial-intelligence/?sh=169015e36327

[100] https://www.ilfattoquotidiano.it/2021/05/15/ecco-abel-il-robot-umanoide-che-capisce-le-emozioni-la-sua-intelligenza-potrebbe-essere-utile-anche-con-i-pazienti-affetti-da-alzheimer/6198361/

[101] https://www.centropiaggio.unipi.it/

[102] https://www.ansa.it/canale_scienza_tecnica/notizie/tecnologie/2022/07/05/il-robot-abel-studia-per-assistere-i-malati-di-demenza_e5b783ce-91a9-4b9d-ada1-32e7d3d31811.html

[103] https://www.ansa.it/canale_scienza_tecnica/notizie/tecnologie/2022/07/05/il-robot-abel-studia-per-assistere-i-malati-di-demenza_e5b783ce-91a9-4b9d-ada1-32e7d3d31811.html

[104] https://www.bbc.com/news/health-50857759

[105] https://emoshape.com/

[106] https://www.forbes.com/sites/cognitiveworld/2019/12/17/empathy-in-artificial-intelligence/?sh=169015e36327

[107] https://prophetsofai.com/speakers/matt-mcmullen

[108] https://finance.yahoo.com/news/innovative-adult-ecommerce-company-abyss-160000068.html

[109]   https://www.che-fare.com/sesso-robot-cinema-realta/?print=pdf

[110] https://www.wired.it/gadget/accessori/2017/09/22/harmony-realdoll-robotica-sesso-dubbi-problemi-sexrobot/

[111]  https://www.officeautomation.soiel.it/da-io-e-caterina-a-la-fabbrica-delle-mogli/

[112]   https://www.che-fare.com/sesso-robot-cinema-realta/?print=pdf

[113] https://www.washingtonpost.com/outlook/2022/02/04/self-driving-cars-why/

[114] https://www.youtube.com/watch?v=q7K3cjBoTf4

[115] https://www.neuvition.com/?utm_source=googlead&utm_medium=searchcpc-all&utm_campaign=songhai&utm_plan=search-all208&utm_unit=car&campaignid=15935564627&adgroupid=133176233180&matchtype=p&utm_keyword=vehicle%20lidar&gclid=CjwKCAjwwo-WBhAMEiwAV4dybeZREVkx0lc-4EDHJjXclyJnvW6dfGg9dUC2ZiFDxfqd0feACrlnzBoCI0YQAvD_BwE

[116]  https://www.natlawreview.com/article/dangers-driverless-cars

[117] https://www.npr.org/2022/06/15/1105252793/nearly-400-car-crashes-in-11-months-involved-automated-tech-companies-tell-regul#:~:text=Automated%20tech%20factored%20in%20392,11%20months%2C%20regulators%20report%20%3A%20NPR&text=Press-,Automated%20tech%20factored%20in%20392%20car%20crashes%20in%2011%20months,July%202021%20to%20May%202022. ; https://www.tesla.com/it_it

[118] https://www.natlawreview.com/article/dangers-driverless-cars

[119] https://www.washingtonpost.com/outlook/2022/02/04/self-driving-cars-why/

[120] https://time.com/6132399/timnit-gebru-ai-google/

[121]  https://www.officeautomation.soiel.it/da-io-e-caterina-a-la-fabbrica-delle-mogli/

Schreibe einen Kommentar