Un grupo de científicos de la Universidad de California en San Diego reportó, en un artículo recientemente publicado en el servicio de preimpresión arXiv, que el popular chatbot GPT-4 logró ser confundido con un humano en más de la mitad de las conversaciones que sostuvo con personas que participaron en la prueba de Turing.
Alrededor del 54 % de los participantes que conversaron con el chatbot GPT-4 creyeron erróneamente que estaban interactuando con una persona real. © Cortesía
En 1950, el matemático e informático británico Alan Turing propuso un método de investigación que permite evaluar si una máquina es capaz de mostrar un comportamiento inteligente hasta el punto de ser indistinguible del de un ser humano.
- Te podría interesar: Comienza en Ginebra cumbre sobre Inteligencia Artificial
Originalmente, en la prueba de Turing se requería de tres terminales separadas físicamente entre sí. Asimismo, se contemplaba que una terminal sería operada por una computadora, mientras que las otras dos serían operadas por humanos.
Durante la prueba, uno de los humanos haría preguntas, mientras que el otro humano y el ordenador responderían. Después de un período establecido o una cantidad de preguntas, se le pediría al interrogador que decidiera qué entrevistado era humano y cuál era una computadora.
Los especialistas destacaron que «los resultados proporcionan la primera demostración empírica de que cualquier sistema artificial pasa una prueba de Turing interactiva de dos jugadores» basada en la conversación. Sin embargo, reconocieron que «el razonamiento de los participantes sugiere que los factores estilísticos y socioemocionales» tienen una importante función para «aprobar la prueba de Turing», en lugar de las ideas «tradicionales de inteligencia».
Fuente: RT