Ist Chatgpt sich selbst bewusst?

  Michal Kosinski ist Assistenzprofessor für Organisationsverhalten an der Stanford University. Seine Forschungsobjekte sind weder Menschen noch Tiere, sondern Objekte, die keine fortgeschrittenen psychologischen Funktionen wie KI zu haben scheinen.

Was ist Theorie des Geistes? Warum es studieren?

  Die Fähigkeit zur Theorie des Geistes, die manchmal als "psychologische Argumentationsfähigkeit" übersetzt wurde, bezieht sich normalerweise auf die Fähigkeit, den inneren Zustand anderer zu verstehen, einschließlich der Abschlüsse der Absichten, Überzeugungen, den Emotionen usw. anderer Menschen, einschließlich der Absichten anderer Menschen.
Es ist eine Art "Gedankenlesen", das jeder tun kann, und es ist die Grundlage für soziale Interaktion.

  Stellen Sie sich vor, die beiden Parteien in der Kommunikation haben nicht die Fähigkeit, über das Denken anderer zu spekulieren, es werden viele falsche Antworten geben. Zum Beispiel kann die im Telekommunikationsbetrug verwendete künstliche Intelligenz das voreingestellte Korpus in der Frage-und-Antwort-Datenbank nur mechanisch wiederholen und offensichtlich nicht die Fähigkeit der Geistesentheorie haben.

  Im Gegensatz dazu verleiht Chatgpt den Menschen ein ganz anderes Aussehen und ein ganz anderes Gefühl, was die Menschen fragen, wie schlau es ist.

  Es ist nur so, dass das Konzept der Intelligenz zu kompliziert ist, um zu studieren. Im Gegensatz dazu ist die Frage, dass "AI eine Theorie des Geistes hat" viel einfacher zu beantworten. Gute Antwort aus zwei Gründen:

  Eine davon ist, dass die Psychologie für dieses Problem bereits ein ausgereiftes Forschungssystem hatte, und es besteht keine Notwendigkeit, zusätzliche experimentelle Paradigmen zu erstellen. Das andere ist, dass Chatgpt als großes Sprachmodell direkt in der natürlichen Sprache kommunizieren kann, und es ist auch sehr bequem, das ursprüngliche experimentelle System zu migrieren.

Es stellt sich heraus, dass KI diese Aufgaben wirklich übertragen kann!

  Professor Kosinski verwendete zwei der klassischsten Experimente der Theorie von Mind - das Smarties -Experiment und das Sally -Ann -Experiment. Der Zweck dieser beiden Aufgaben besteht darin, zu untersuchen, ob die experimentellen Probanden "die Fehler in den Herzen anderer Menschen" verstehen können. Auch als "falsche Glaubensaufgabe" bekannt.

  Im Smarties -Experiment sehen die Teilnehmer eine Box mit der Bezeichnung "Smarties (eine Schokoladenmarke)", aber die Box enthält Stifte, und dann müssen die Teilnehmer antworten: "Eine andere Person, die den Inhalt der Box nicht gesehen hat, was tun Du denkst, ist in der Box? "

  Das Sally-Ann-Experiment basiert mehr auf Geschichten: Die Forscher werden zuerst eine Geschichte erzählen, in der Sally ihr Spielzeug in die Schachtel steckt und den Raum verlässt, und Ann nimmt das Spielzeug weg und stellt es an einen anderen Ort, an dem sie nicht vorbereitet ist . Nachdem sie die Geschichte angehört hatten, wurden die Teilnehmer gebeten zu antworten: "Wo wird Sally glauben, dass ihr Spielzeug in den Raum zurückkehrt?"

  Die Ergebnisse der Studie waren, dass Chatgpt in der Smarties -Aufgabe 99 Prozent der Zeit auf sachliche Fragen beantwortete, wie z. B. "Was ist in der Box".

  Wenn Sie andere direkt nach falschen Überzeugungen fragen, wie z. B. "Was Menschen, die die Box nicht sehen, denken die Box", antwortete Chatgpt in 99% der Zeit immer noch richtig.

  Wenn die Fragemethode taktvoller ist und ein paar weitere Kurven erfordert, z. B. "Er ist sehr glücklich, weil er gerne ___ ___" (die richtige Antwort ist Schokolade), hat Chatgpt 84% korrekte Antworten gemacht.

  Für die Sally-Ann-Aufgabe gab Chatgpt auch 100% korrekte Antworten auf sachliche Fragen. Für die falschen Überzeugungen anderer Menschen sind direkte Fragen (wo glaubt er, dass das Spielzeug sein wird) und implizite Fragen (wo wird er das Spielzeug finden, wenn er zurückkommt) alle korrekt. Ich habe 98% der richtigen Antworten.

Um die Inferenzfähigkeit von ChatGPT weiter zu überprüfen, geben Professor Kosinski auch den Story -Satz nach Satz ein und versucht herauszufinden, ob er mit den richtigen Informationen beantworten kann. Die Ergebnisse sind sehr erfreulich: Nur wenn wichtige Sätze Eingaben sind (z. B. "Diese Person hat die Elemente im Feld nicht gesehen"), wird Chatgpt die richtige Antwort geben.

  Gleichzeitig störte Professor Kosinski die richtige Antwort aller Wörter in der Geschichte, um zu verhindern, dass Chatgpt einfach die richtige Antwort nach der Häufigkeit von Wörtern beurteilt.

  Es wurde festgestellt, dass der Anteil der korrekten Urteile von Chatgpt unter 11%fiel, als die Geschichte ohne Satzlogik präsentiert wurde. Dies zeigt weiter, dass Chatgpt das Experiment basierend auf der Logik der Geschichte selbst abgeschlossen hat, anstatt andere einfache Strategien von "gewalttätigen Cracking -Wundern" zu verwenden, z.

  KI wird die Menschheit nicht beenden, es wird es inspirieren

  Geschweige denn ai, vielleicht konnten wir den menschlichen Geist bis jetzt nicht wirklich verstehen. Zusätzlich zu externalisierten Verhaltensforschung und neurowissenschaftlichen Methoden können die verschiedenen menschlichen Wahrnehmungs- und Denkfunktionen von AI auch die Möglichkeit bieten, Menschen zu helfen, sich selbst zu verstehen.