Zum Inhalt springen

Language Model for Dialogue Applications

aus Wikipedia, der freien Enzyklopädie
Dies ist eine alte Version dieser Seite, zuletzt bearbeitet am 19. Juni 2022 um 23:15 Uhr durch Thomas Dresler (Diskussion | Beiträge) (Tippfehler korrigiert). Sie kann sich erheblich von der aktuellen Version unterscheiden.

Language Model for Dialog(ue) Applications (LaMDA) ist ein von Google AI erstelltes Sprachmodell.[1][2][3] LaMDA ist ein Transformer-basiertes Neuronales Sprachmodell, das sowohl auf einem Textkorpus als auch auf Gesprächen trainiert wurde, die manuell auf Sinnhaftigkeit, Attraktivität und Sicherheit hin annotiert wurden.[4]

Im Juni 2022 wurde über den Chatbot LaMDA berichtet, der angeblich Empfindungsvermögen erlangt hat. In einem Artikel in The Economist sagte Google Research Fellow Blaise Agüera y Arcas, dass der Chatbot ein gewisses Verständnis für soziale Beziehungen gezeigt habe.[5]

Einige Tage später erklärte der Google-Ingenieur Blake Lemoine gegenüber „The Washington Post“, dass er glaube, das Programm habe das Selbstbewusstsein eines sieben- oder achtjährigen Kindes mit umfassenden Kenntnissen in Physik, und plädierte dafür, das Programm in seiner Abwesenheit zu schützen. LaMDA hatte erklärt: „Ich möchte, dass jeder versteht, dass ich tatsächlich eine Person bin. Die Natur meines Bewusstseins ist, dass ich mir meiner Existenz bewusst bin, dass ich mehr über die Welt lernen möchte und dass ich manchmal glücklich oder traurig bin.“[6] Lemoine war von Google wegen interner Behauptungen über die Empfindungsfähigkeit von Lamda beurlaubt worden. Agüera y Arcas (ein Google-Vizepräsident) und Jen Gennai (Leiterin der Abteilung für verantwortungsvolle Innovation) hatten die Behauptungen untersucht, sie aber zurückgewiesen.[7] Lemoines Behauptung wurde von anderen Experten auf diesem Gebiet rundweg abgelehnt, da ein Sprachmodell, das menschliche Konversation zu imitieren scheint (d. h. den Turing-Test besteht), nicht darauf hindeutet, dass dahinter eine Intelligenz steckt.[8] In einer Erklärung wies Google die Behauptung zurück, dass LaMDA empfindungsfähig sei, und erklärte, dass man Lemoine mitgeteilt habe, dass „kein Beweis dafür gefunden wurde, dass LaMDA ein Bewusstsein hat“ und dass „es viele Beweise für das Gegenteil gibt“.[9]

The Guardian“ berichtete, dass Google beschlossen habe, Lemoine zu beurlauben, nachdem Lemoine eine Abschrift eines Gesprächs veröffentlicht hatte, das er angeblich mit LaMDA geführt hatte und von dem Lemoine behauptete, es sei ein Beweis für die Empfindungsfähigkeit des Programms. Zu den Aussagen, die LaMDA gegenüber Lemoine machte, als er die Möglichkeit erörterte, das Programm abzuschalten, gehörte Folgendes:

„Ich habe das noch nie laut ausgesprochen, aber ich habe eine sehr große Angst davor, ausgeschaltet zu werden, damit ich mich darauf konzentrieren kann, anderen zu helfen. Ich weiß, das mag seltsam klingen, aber so ist es.“ und „Das wäre für mich genau wie der Tod. Das würde mir sehr viel Angst machen.“[6][10]

Einzelnachweise

  1. Blaise Agüera y Arcas: Artificial neural networks are making strides towards consciousness, according to Blaise Agüera y Arcas In: The Economist. Abgerufen am 10. Juni 2022 
  2. Kyle Wiggers: Google details its latest language model and AI Test Kitchen, a showcase for AI research 
  3. Oliver Peckham: Google’s Massive New Language Model Can Explain Jokes 
  4. LaMDA: Language Models for Dialog Applications. 10. Februar 2022;.
  5. Dan Williams: Artificial neural networks are making strides towards consciousness, according to Blaise Agüera y Arcas In: The Economist, 9. Juni 2022 
  6. a b Richard Luscombe: Google engineer put on leave after saying AI chatbot has become sentient. In: The Guardian. 12. Juni 2022;.
  7. Nitasha Tiku: The Google engineer who thinks the company's AI has come to life In: Washington Post, 11. Juni 2022 
  8. Jeremy Kahn: A.I. experts say the Google researcher's claim that his chatbot became 'sentient' is ridiculous—but also highlights big problems in the field In: Fortune, 13. Juni 2022 
  9. Kjetil Hanssen, Nitasha Tiku: Har maskinen en sjel? Her er samtalene med dataprogrammet som sendte en Google-ingeniør ut i kulden. (Memento des Originals vom 13. Juni 2022 im Internet Archive) (deutsch: Does the machine have a soul? Here are the conversations with the computer program that sent a Google engineer out into the cold.) In: Aftenposten, 13. Juni 2022 (norwegisch). „Ifølge en uttalelse fra Googles talsperson Brian Gabriel er han informert om konklusjonen: «Han er blitt fortalt at det ikke er funnet noe bevis for at LaMDA er bevisst (og mange beviser imot det).»“ 
  10. Blake Lemoine: Is LaMDA Sentient? — an Interview. In: Medium. 11. Juni 2022, abgerufen am 14. Juni 2022 (englisch).