Почему полагаться на ChatGPT для уплаты налогов — рискованный шаг

Переход к цифровой налоговой отчетности завершен: 94% индивидуальных федеральных налоговых деклараций в США были поданы в электронном виде в 2022 году, согласно данным Pew Research. По мере распространения инструментов искусственного интеллекта (ИИ) многие обращаются за помощью к чат-ботам, таким как ChatGPT, однако эксперты по кибербезопасности предупреждают, что это удобство сопряжено со значительными рисками. Примерно 30% американцев сейчас говорят, что будут использовать ИИ для подготовки налоговых деклараций, и почти половина доверяет его советам, особенно молодые налогоплательщики и мужчины, согласно последним опросам.

Однако эти универсальные чат-боты принципиально отличаются от инструментов ИИ, предлагаемых устоявшимися налоговыми службами, такими как H&R Block. «Вам не стоит использовать чат-боты в качестве налоговых консультантов», — предупреждает Абхишек Карник из группы анализа угроз McAfee. «Они не являются экспертами.»

Почему чат-боты привлекательны, несмотря на опасность

Всплеск использования чат-ботов обусловлен несколькими факторами. Прекращение программы Direct File от Налоговой службы, в сочетании со сложными налоговыми законами, оставило многих в замешательстве. Люди ищут простые объяснения, и ИИ, кажется, их предоставляет: «Многие люди рассматривают чат-боты как простой способ перевести запутанные инструкции на понятный язык», — объясняет Кристофер Кен, генеральный директор AI-кибербезопасной фирмы Mill Pond Research. Рост стоимости профессиональной помощи и растущий комфорт с ИИ в повседневной жизни также играют роль.

Но это удобство скрывает реальную опасность.

Риски безопасности при обмене налоговыми данными с ИИ

Основная проблема — безопасность данных. Универсальные чат-боты не предназначены для безопасной обработки конфиденциальной финансовой информации. Загрузка личных документов на платформы, такие как ChatGPT, делает их уязвимыми для утечки в случае взлома платформы, вредоносных расширений браузера или скомпрометированных устройств. Даже общедоступные запросы могут привести к утечке конфиденциальных данных.

Эксперты также предупреждают о фишинговых схемах, замаскированных под инструменты ИИ, и поддельных налоговых сайтах, улучшенных с помощью генеративного ИИ. «Когда речь идет о налогах, чем меньше данных вы передаете, тем безопаснее», — подчеркивает Кен. Это включает в себя отказ от загрузки полных налоговых форм, номеров социального страхования, банковских реквизитов, информации о работодателе или адресов. Судьба этих данных неясна: «Мы не знаем, куда в конечном итоге попадает эта информация… Она отправляется куда-то.»

Почему ChatGPT плохо справляется с налогами

Помимо безопасности, точность ChatGPT вызывает сомнения. LLM часто допускают ошибки в вычислениях, неправильно понимают налоговые скобки и используют устаревшую информацию. «В целом, вы не можете доверять результатам», — резко заявляет Карник. Налоговая служба не примет оправдание «ИИ мне сказал» в случае ошибок.

Как ответственно использовать ИИ (если уж очень нужно)

Эксперты рекомендуют обращаться за профессиональной налоговой помощью, когда это возможно. Если это нереально, соблюдайте правила цифровой гигиены: используйте безопасные платформы, включите многофакторную аутентификацию и избегайте доступа к финансовым инструментам в общественных сетях.

Лучший подход — рассматривать ИИ как помощника в исследованиях, а не консультанта. Используйте его, чтобы получить объяснения по вычетам или этапам подачи, но никогда не предоставляйте личные налоговые данные. Затем перепроверьте информацию с помощью человека-специалиста.

Короче говоря: ИИ может направлять ваши вопросы, но он не должен заменять экспертные советы, когда дело касается ваших налогов.