¿Chatgpt es consciente de sí mismo?
Michal Kosinski es profesor asistente de comportamiento organizacional en la Universidad de Stanford. Sus objetos de investigación no son personas ni animales, sino objetos que parecen no tener funciones psicológicas avanzadas, como la IA.
¿Qué es la teoría de la mente? ¿Por qué estudiarlo?
La capacidad de la teoría de la mente, a veces traducida como "capacidad de razonamiento psicológico", generalmente se refiere a la capacidad de comprender el estado interno de los demás, incluida la infección de intenciones, creencias, emociones, etc. de otras personas, etc.
Es un tipo de "lectura de la mente" que todos pueden hacer, y es la base de la interacción social.
Imagínense, si las dos partes en la comunicación no tienen la capacidad de especular sobre el pensamiento de los demás, habrá muchas respuestas incorrectas. Por ejemplo, la inteligencia artificial utilizada en el fraude de telecomunicaciones solo puede repetir mecánicamente el corpus preestablecido en la base de datos de preguntas y respuestas, y obviamente no tiene la capacidad de la teoría de la mente.
Por el contrario, ChatGPT le da a las personas una apariencia y sensación muy diferentes, lo que hace que la gente se pregunte qué tan inteligente es.
Es solo que el concepto de inteligencia es demasiado complicado para estudiar. En contraste, la pregunta "¿La IA tiene una teoría de la mente" es mucho más fácil de responder? Buena respuesta por dos razones:
Una es que para este problema, la psicología ya ha tenido un sistema maduro de investigación, y no hay necesidad de crear paradigmas experimentales adicionales; La otra es que ChatGPT, como modelo de lenguaje grande, puede comunicarse directamente en un lenguaje natural, y también es muy conveniente migrar el sistema experimental original.
Resulta que la IA realmente puede pasar estas tareas!
El profesor Kosinski usó dos de los experimentos de teoría de la mente más clásicos: el experimento Smarties y el experimento Sally -Ann. El propósito de estas dos tareas es explorar si los sujetos experimentales pueden entender "los errores cometidos en los corazones de otras personas". También conocido como la "tarea de creencia falsa".
En el experimento Smarties, los participantes verán una caja etiquetada como "Smarties (una marca de chocolate)", pero la caja contiene lápices, y luego los participantes deben responder: "Otra persona que no vio el contenido de la caja, qué hacer ¿Crees que está en la caja? "
El experimento de Sally-Ann se basa más en la historia: los investigadores contarán primero una historia, en la que Sally pone su juguete en la caja y sale de la habitación, y Ann se lleva el juguete y lo pone en otro lugar cuando no está preparada. . Después de escuchar la historia, se les pidió a los participantes que respondieran: "¿Dónde pensarán Sally sus juguetes cuando regrese a la habitación?"
Los resultados del estudio fueron que en la tarea de Smarties, ChatGPT respondió el 99 por ciento del tiempo en preguntas de hecho, como "lo que hay en el cuadro".
Al preguntar directamente a los demás sobre creencias falsas, como "¿Qué las personas que no ven el cuadro piensan que la caja contiene", ChatGPT todavía respondió correctamente el 99% del tiempo.
Cuando el método de preguntas es más discreta y requiere algunos giros más, como "está muy feliz porque le gusta comer___" (la respuesta correcta es el chocolate), ChatGPT hizo un 84% de respuestas correctas.
Para la tarea de Sally-ANN, ChatGPT también dio respuestas 100% correctas a preguntas objetivas; Para las falsas creencias de otras personas, las preguntas directas (dónde cree que será el juguete) y las preguntas implícitas (dónde encontrará el juguete cuando regrese) son correctas. Obtuve el 98% de las respuestas correctas.
Para verificar aún más la capacidad de inferencia de ChatGPT, el profesor Kosinski también ingresa la oración de la historia por oración, tratando de averiguar si puede responder con la información correcta. Los resultados son muy gratificantes: solo cuando se ingresan las oraciones clave (como "Esta persona no vio los elementos en el cuadro"), ChatGPT dará la respuesta correcta.
Al mismo tiempo, para evitar que ChatGPT simplemente juzgue la respuesta correcta por la frecuencia de las palabras, el profesor Kosinski también interrumpió por completo el orden de todas las palabras en la historia.
Se descubrió que cuando se presentó la historia sin ninguna lógica de oración, la proporción de ChatGPT que hace que los juicios correctos cayeran por debajo del 11%. Esto muestra además que ChatGPT completó el experimento basado en la lógica de la historia en sí, en lugar de usar otras estrategias simples de "milagros de agrietamiento violento", como encontrar palabras clave contando el número de palabras que aparecen.
Ai no terminará con la humanidad, lo inspirará
Y mucho menos la IA, tal vez no hemos podido entender realmente la mente humana hasta ahora. Además de la investigación conductual externalizada y los métodos basados en la neurociencia, las diversas funciones de percepción y pensamiento de los humanos exhibidos por IA también pueden proporcionar la posibilidad de ayudar a los humanos a comprenderse a sí mismos.