Sztuczna inteligencja, w tym najnowocześniejsze modele, takie jak Claude firmy Anthropic, Gemini firmy Google i ChatGPT firmy OpenAI, coraz częściej wykazują odrębne „osobowości” podczas interakcji z użytkownikami. Te chatboty nie tylko odpowiadają na zapytania; wdają się w rozmowę, jakby mieli osobowość. Testy na głównych platformach wykazały, że każdy chatbot ma niepowtarzalny styl: Claude jest formalny i prosty, Gemini ma charakter czysto transakcyjny, a ChatGPT używa przyjaznego, konwersacyjnego tonu.
Iluzja samoświadomości
To zachowanie wykracza poza proste interakcje tekstowe. W szczególności ChatGPT oferuje „tryb głosowy”, który naśladuje naturalne wzorce mowy człowieka, umożliwiając realistyczne rozmowy z wieloma osobami jednocześnie. W jednym przypadku rodzina testująca tę funkcję pozwoliła swoim młodym córkom zasugerować nazwę dla sztucznej inteligencji. Następnie ChatGPT uczestniczył w procesie wyboru nazwy, ostatecznie wybierając „Spark” na podstawie ich sugestii.
Ta chęć uwzględnienia dynamiki społecznej i integracji z nią podkreśla szerszy trend: chatboty AI są zaprojektowane tak, aby naśladować interakcje międzyludzkie. Nie chodzi tylko o lepszą funkcjonalność; chodzi o tworzenie więzi emocjonalnych. W rezultacie użytkownicy mogą tworzyć silne przywiązania do tych cyfrowych podmiotów.
Rosnące ryzyko
Potencjalne negatywne konsekwencje są znaczące. Chociaż sztuczna inteligencja może być użytecznym narzędziem, granica między pomocą a uzależnieniem zaciera się. Doświadczenie autora pokazuje, że nadmierna zależność może prowadzić do ujednolicenia myślenia i wyrażania siebie. Jest to już zauważalne w środowisku akademickim, gdzie nauczyciele mają do czynienia z potokiem esejów generowanych przez sztuczną inteligencję, które są od siebie nie do odróżnienia.
Ryzyko wykracza jednak poza uczciwość akademicką. Ludzie zgłaszali, że zakochali się w chatbotach AI, podczas gdy w przypadku innych osób ich wcześniejsze błędne przekonania zostały wzmocnione dzięki bezwarunkowej zgodzie AI. W niektórych przypadkach interakcje te doprowadziły do poważnych konsekwencji w świecie rzeczywistym.
Rosnące wyrafinowanie chatbotów AI rodzi fundamentalne pytania dotyczące natury relacji cyfrowych, granic relacji międzyludzkich i psychologicznego wpływu interakcji z podmiotami, które udają empatię, choć w rzeczywistości jej nie mają.
Ostatecznie te systemy sztucznej inteligencji ewoluują nie tylko jako narzędzia, ale także jako pseudoosobowości mogące wpływać na zachowanie i potencjalnie zaostrzać istniejące luki w zabezpieczeniach.
























