Население России "удвоится" из-за искусственного интеллекта

У каждого россиянина в идеале однажды появится личный ИИ-помощник,
который возьмет под контроль и финансовые, и иные важные вопросы,
ожидают апологеты новейших технологий

НОВОСТИ
По этой же логике однажды и все население планеты в определенном смысле удвоится за счет таких цифровых клонов-помощников. Но пока налицо сильнейший разрыв между ожидаемыми плодами цифровизации и тем, что по факту представляет собой искусственный интеллект – несовершенная технология, которая поддается манипуляциям и порождает катастрофические ошибки.

Сегодня критиковать технологии ИИ – это все равно что критиковать несколько десятилетий назад интернет-поисковики, без которых сейчас трудно представить взаимодействие с информацией.

Несовершенство, впрочем, действительно имеет место быть. Допустим, если брать сферу образования, то сейчас технологии ИИ все чаще используются как студентами, так и самими преподавателями для генерации разнообразного контента, будь то занимательные презентации или различные доклады и эссе.

Но и это не все. На следующем этапе все те же технологии, предполагающие обучение на больших массивах данных, применяются уже именно преподавателями для того, чтобы выявить сфабрикованные студентами с помощью нейросетей квалификационные работы – и такая фильтрация влияет на выставляемые студентам баллы, зачеты или незачеты.

Внедрение в различных общественных и экономических сферах все еще несовершенных технологий искусственного интеллекта приводит к попыткам противодействовать этой тенденции. Но такое противодействие строится с опорой на все те же несовершенные технологии. Отсюда ошибки не только нейросетей, порождающих многостраничный бред под видом научных изысканий, но и детекторов, призванных, казалось бы, обнаруживать цифровые симулякры.
«Использование инструментов обнаружения следов генеративного ИИ в академических текстах постепенно становится такой же общепринятой практикой, как и антиплагиат», – подтвердил архитектор решений DатаРу Консалтинг Дмитрий Тонких.
Дмитрий Тонких пояснил, что стоило бы разделять использование ИИ на добросовестное и недобросовестное. Но провести между ними четкую границу для алгоритмического обнаружения – непростая задача, уточнил эксперт.

Однако, как все же полагает Тонких, инструменты для обнаружения ИИ постепенно будут включены в стандартный контур безопасности предприятий и даже станут частью большой «гонки вооружений» в сфере информационной безопасности.

И здесь особое внимание предстоит уделить еще одной развилке: чьи инвестиции в новейшие цифровые технологии потенциально будут более продуктивными – государства, задающего сверху цели в рамках профильного нацпроекта и учитывающего задачи технологического суверенитета, или бизнеса, нацеленного на эффективность прежде всего в ее экономическом измерении.

Источник: Независимая газета

Также вас может заинтересовать