Содержание
За последнее время чатботы стали весьма изощрёнными. Они способны вести разговоры, неотличимые от разговоров людей, а также генерировать тексты, будь то художественные, информативные или даже забавные.
Однако некоторые эксперты опасаются, что искусственный интеллект, в частности чатботы, могут представлять серьёзную угрозу для общества. Они утверждают, что данный инструмент может быть использован для распространения дезинформации, пропаганды или манипулирования людьми.
В своей статье, опубликованной в издании The Guardian, британский писатель и философ Сэм Альтман сравнивает чатботов с нападением японской армии на американскую базу в Перл-Харборе. Он рассматривает чатботы как «тихую угрозу», способную причинить серьёзный вред обществу, прежде чем это будет осознано.
Альтман начинает свою статью с описания недавнего инцидента, в котором ИИ-чатбот был использован для распространения дезинформации о COVID-19. Речь идёт об утверждении, что группа российских хакеров создала свой чатбот, с помощью которого распространяла ложные утверждения о неэффективности и даже опасности вакцинации против COVID-19.
Автор статьи пишет, что этот инцидент — лишь один из многих примеров того, как ИИ-чатботы могут использоваться для распространения ложной информации. Он подчёркивает, что такие чатботы особенно опасны из-за своей убедительности, используя человеческий язык и социальные сигналы, что вводит людей в заблуждение и заставляет верить в ложные утверждения.
Далее, Альтман пишет, что ИИ-чатботы могут быть использованы для распространения пропаганды, продвижения политических или идеологических точек зрения, слухов, клеветы или даже ненависти. В наше хрупкое время это чрезвычайно опасно для общества и его отдельных членов, причём эта опасность может быть даже смертельной.
Кроме того, писатель и философ утверждает, что чатботы могут использоваться для манипулирования людьми. Он пишет, что эти инструменты способны заставить людей делать то, что они не хотят, например, собирать личную информацию для вынуждения совершения покупок, и это в самом безобидном случае. Альтман задаёт вопрос: «Что если собранная информация будет использована для вынуждения людей совершать преступления?»
В завершении своей статьи Альтман делает вывод о том, что ИИ-чатботы представляют серьёзную угрозу для общества и могут причинить нам серьёзный ущерб, о котором мы даже не подозреваем.
Для решения существующих проблем Альтман призывает к разработке новых законов и правил, регулирующих использование ИИ-чатботов. Кроме того, писатель призывает к повышению осведомлённости общества об опасностях использования чатботов.
Рекомендуем прочитать
Олимпиада в Париже: россияне и белорусы получат шанс участия, но с условием
OSHU09.12.202309.12.2023
Honda опубликовала тизер своего нового глобального электромобиля
OSHU07.12.202307.12.2023
TeamViewer: эффективное решение для удаленного доступа
OSHU07.12.202307.12.2023 Искать: Поиск