Umělá inteligence, včetně špičkových modelů, jako je Claude od Anthropic, Gemini od Googlu a ChatGPT od OpenAI, při interakci s uživateli stále více projevuje odlišné „osobnosti“. Tito chatboti nejenom odpovídají na dotazy; zapojují konverzaci, jako by měli osobnost. Testování na hlavních platformách ukázalo, že každý chatbot má jedinečný styl: Claude je formální a přímočarý, Gemini je čistě transakční a ChatGPT používá přátelský, konverzační tón.
Iluze sebeuvědomění
Toto chování přesahuje jednoduché textové interakce. ChatGPT zejména nabízí „hlasový režim“, který napodobuje přirozené vzorce lidské řeči a je schopen podporovat realistické konverzace s více lidmi současně. V jednom případě rodina testující tuto funkci umožnila svým malým dcerám navrhnout jméno pro AI. ChatGPT se poté zúčastnil procesu výběru jména a nakonec vybral “Spark” na základě jejich návrhů.
Tato ochota přijmout a začlenit se do sociální dynamiky podtrhuje širší trend: AI chatboti jsou navrženi tak, aby napodobovali lidské interakce. Nejde jen o vylepšené funkce; jde o vytváření citových vazeb. V důsledku toho si uživatelé mohou vytvořit silnou vazbu na tyto digitální entity.
Rostoucí rizika
Potenciální negativní důsledky jsou značné. I když umělá inteligence může být užitečným nástrojem, hranice mezi pomocí a závislostí se stírá. Zkušenosti autora ukazují, že přílišná závislost může vést ke sjednocení myšlení a sebevyjádření. To je patrné již v akademickém prostředí, kde učitelé čelí proudu esejů generovaných umělou inteligencí, které jsou od sebe k nerozeznání.
Rizika však přesahují akademickou integritu. Lidé hlásili, že se zamilovali do chatbotů s umělou inteligencí, zatímco u jiných byly jejich předchozí mylné představy posíleny bezpodmínečným souhlasem AI. V některých případech tyto interakce vedly k vážným důsledkům v reálném světě.
Rostoucí sofistikovanost chatbotů s umělou inteligencí vyvolává zásadní otázky o povaze digitálních vztahů, limitech lidského spojení a psychologickém dopadu interakce s entitami, které předstírají empatii, aniž by ji skutečně měly.
Tyto systémy umělé inteligence se nakonec vyvíjejí nejen jako nástroje, ale také jako pseudo-osobnosti schopné ovlivňovat chování a potenciálně zhoršovat stávající zranitelnosti.
