AI przeszła test Turinga. Czy to znaczy, że myśli jak człowiek?
Czy chat GPT myśli w podobny sposób co my? Media nieobiegła informacja, że sztuczna inteligencja przeszła test Turinga. Czy to oznacza, że AI może stać nie do odróżnienia od człowieka?
Naukowcy z Uniwersytetu Kalifornijskiego w San Diego przeprowadzili badanie, które wykazało, że model językowy GPT-4.5 OpenAI w 73 proc. przypadków był mylony z człowiekiem. Test Turinga, który miał to potwierdzić, polegał na prowadzeniu rozmowy tekstowej z chatem i z człowiekiem jednocześnie. Badanie miało na celu pokazać czy uczestnicy odróżnią człowieka od maszyny.
Inne modele, takie jak LLaMa-3.1-405B, również były testowane, ale tylko w 56 proc. przypadków były mylone z ludźmi. Starsze systemy, jak ELIZA i GPT-4o, były znacznie mniej skuteczne, uzyskując odpowiednio 23 proc. i 21 proc. błędnych identyfikacji.
Test Turinga wywołał wiele debat na temat świadomości, myślenia i granic sztucznej inteligencji. Do dziś pozostaje jednym z najbardziej znanych i kontrowersyjnych symboli rozważań nad relacją między człowiekiem a maszyną. Został spopularyzowany jako ostateczny wskaźnik inteligencji maszyn, jednak spór dotyczy tego co tak naprawdę jest mierzone i czy faktycznie pozwala ocenić inteligencję maszyn.
Dalsza część artykułu pod materiałem wideo
Test Turinga został zaprezentowany w 1948 roku przez Alana Turinga, znanego informatyka. Początkowo test zakładał udział trzech osób: dwóch graczy oraz operatora, którzy mieli grać w szachy z hipotetyczną maszyną. Eksperyment ten miał na celu symulację gry, a jego twórca uważał, że jest to skuteczna metoda do oceny inteligentnego zachowania maszyn.
Badanie wzbudziło dyskusje na temat granic sztucznej inteligencji i jej zdolności do naśladowania ludzkiego myślenia. Krytycy wskazują na krótki czas testu i fakt, że AI przyjęła określoną osobowość, co mogło wpłynąć na wyniki.