Аннотация. Автором рассматриваются основные направления психологических исследований, описывающих поведение людей в киберпространстве. Учитываются разнообразные виды поведения: коммуникативное, познавательное, развлекательно-игровое, консьюмеристское (онлайн-шопинг) и др. Предлагаемые направления психологических исследований включают: анонимность, перенос из онлайн-среды в реальность и обратно, репутационную прокачку, мобильность, погружение (иммерсию), распределенность поведения.
К лючевые слова: киберпсихология, виртуальность, анонимность, гибридное поведение, репутационная прокачка, мобильность, погружение, распределенность поведения.
Главной характеристикой поведения в киберпространстве могла бы быть названа виртуальность, если под таковой понимать все, что выполняется посредством сервисов Интернета: виртуальные отношения, виртуальные игры, виртуальные покупки, виртуальное общение, виртуальные знакомства и др. Однако всеобщность данного понятия во многом препятствует выделению «виртуальности» в качестве основополагающей универсальной характеристики исследований в сфере киберпсихологии, или анализа человеческого поведения в Интернете. На основе исследовательского опыта и анализа публикаций выдвигаем следующую классификационную систему исследований, лежащую в основе изучения психологами поведения человека в Интернете (Войскунский, 2016).
Перенос из реальности в пространство Интернета и обратно, а также смешанные («гибридные») формы поведения. Данный тип поведения предусматривает действия одновременно в реальности, и в Интернете. Примерами могут служить наведение справок и использование компьютерных советов в информационных системах (или в смартфоне, в т.ч. в режиме устной речи), выполнение практических действий под руководством компьютерных аватаров, движение по рекомендации программы-«навигатора» и т.п. Системы виртуальной и дополненной реальности применяются для организации «смешанных» форм поведения: выполнения трудовых операций по подсказке системы дополненной реальности, игровых методов реабилитации и психологической помощи постстрессовых состояний, фобий – чаще всего посредством когнитивно-бихевиоральной терапии, поддержанной системами виртуальной и дополненной реальности. Формы и способы поведения, приобретенные в ходе опосредствованных системами виртуальной реальности тренировок, могут переноситься в поведение в реальной жизни; феноменология такого рода трансферов именуется в настоящее время «эффектом Протея» (Yee, 2014).
Из Интернета в реальность переносятся термины, символы (напр., @), речевые штампы и мемы, лежащие в основе языка «новых медиа», рекламы и маркетинга. Благодаря Интернету возвращаются в обиход устаревшие навыки (т.н. реверсия) – такие, как например привычка переписываться или вести дневник; другие навыки теряют актуальность, отмирают (т.н. экзуция), к примеру, запоминание фактологической информации (номера телефонов, исторические даты), развитие скорописи или счет в уме. При поиске и считывании информации онлайн, как считается, имеет место большая активация зрительной коры, чем при чтении печатных страниц; это предположительно сказывается на нежелании представителей новых поколений читать «бумажные» книги (Смолл, Ворган, 2011).
Цифровые технологии способствуют расширению когнитивных возможностей. Благодаря «трансгуманистическим» тенденциям, применению протезов (напр., кардиопротезов) с электронной настройкой, да и просто в результате использования стационарных и мобильных информационно-коммуникационных орудий изменяется представление о телесности (Рассказова и др., 2015). Так, в одном из проектов при поражениях зрительного нерва, результатом которых является цветовая слепота, видеокамера перекодирует информацию о цвете окружающих предметов и транслирует ее в звуки разной частоты колебаний, а пациенты обучаются их воспринимать (Файола и др., 2016). Компьютерные гаджеты стали инструментом опосредствования, расширения возможностей сенсорной, нейрокогнитивной и скелетно-мышечной системы. В системах искусственного интеллекта воплощен ряд когнитивных умений (таких как селекция, анализ, обобщение, выработка эвристик, гибкое целеполагание, прайминг и др.): можно прогнозировать объединение высших психических функций с искусственными познавательными процессами, как, к примеру, в интеллектуальном виде спорта – шахматах: противоборство игроков, каждый из которых вооружен компьютерными шахматными программами и потому защищен от грубых ошибок, зато вносит в игру элемента фантазии и творчества.
Анонимность лежит в основе многих видов поведения в кибер-пространстве. Остановимся на девиантном поведении, ибо именно оно бросается в глаза, дает повод для отрицания полезности Интернета и порицания связанных с ним действий. Анонимность провоцирует, как показывает опыт, девиации коммуникативного поведения (флейм, троллинг, кибербуллинг или кибермоббинг и др.), действия в стиле «копи-паст» (плагиат), хакерство, кибер-разведку, читерство. В крайних своих проявлениях анонимность способна, на наш взгляд, привести к диссоциативному расстройству, «двойничеству» или во всяком случае к альтернативным идентичностям, а в будущем можно вообразить развитие перепалок и конфликт интересов между принадлежащими одному и тому же человеку игровыми персонажами, аватарами, идентичностями, носителями ролевых функций.
Убеждение о стопроцентной анонимности пользователей Интернета – распространенное, однако ложное. Путем сотрудничества полицейских органов и провайдеров Интернет-доступа во всех странах выявлено множество «электронных преступников», явных или мнимых. Однако поскольку удается выявить далеко не всех нарушителей, представление об анонимности (пусть неполной) способствует рискованным формам поведения в среде Интернета. В настоящее время факты противоборства между органами следствия/дознания и провайдерами, равно как их сотрудничества и согласованных действий, являются предметом общественного интереса.
Репутационная прокачка. Термин берет начало в компьютерных играх и означает, например, развитие и «прокачку» игрового персонажа путем длительной и эффективной игры, включая также посменную командную игру одним и тем же игровым персонажем в ролевых компьютерных играх с целью улучшения репутации и/или получения выгоды. Процесс значим и во внеигровой сфере: так, репутацией (рейтингом) озабочены блогеры и участники социальных сетей: «прокачать репутацию» проще всего путем видоизменения или «приукрашивания» собственной фотографии и/или биографии, высказывания достоверных (или не очень) фактов и версий происходящих событий, не в последнюю очередь – путем выработки стилевых особенностей взаимодействия с читателями, зрителями и подписчиками. Приобретение и поддержание собственной репутации в незнакомом окружении – это решение относительно новой и сложной задачи: научиться управлять социально-перцептивными процессами партнера/партнеров. В социальных сетях, в блогах управление чаще всего осуществляется посредством самопрезентации – конструирования собственного образа в виде текстов, дополненных изображениями (в т.ч. селфи) и аудиофайлами. В конструируемый образ включаются способы взаимодействия (деликатного, внимательного, грубо-брутального, небрежного и т.п.) с друзьями/френдами и подписчиками/фолловерами, результаты оценки последними степени грамотности и компетентности автора блога или странички в социальной сети.
Самопрезентация нацелена на управление социально-перцептивными процессами в условиях отсутствия привычных каналов для категоризации и коррекции презентируемого образа (Войскунский, 2014). Ныне активно изобретаются и применяются способы конструирования желаемого образа, а также выстраивания целого ряда расходящихся, несовпадающих (противоречащих один другому или совпадающих лишь частично) и альтернативных образов. Перспектива управления социально-перцептивным процессом других участников социальных сетей открывает каналы для манипуляций. Могут быть отмечены практики отклонения от действительности или селекция предъявляемых характеристик. Так, если в самоописаниях делается упор на привлекательность (женщин) или высокий социальный статус (мужчин), то личностным чертам уделяется сравнительно мало внимания (Белинская, 2013). Едва ли справедливо считать недостаток психологических самохарактеристик сознательным отклонением от «объективной» самопрезентации; скорее он обусловлен неразработанностью навыков «предъявления себя».
Мобильность изменила повседневное поведение: люди более не привязаны к гаджетам и аппаратам на рабочем месте или в домашних условиях, им доступна индивидуально подобранная музыка, они постоянно «на связи», в их смартфонах и планшетах – энциклопедии, карты местности, фототека, рабочие и личные файлы, имеется доступ к удаленным хранилищам документов, игровому пространству, средствам управления финансами и т. д. и т. п. Перспектива выполнения трудовых операций в мобильном режиме воздействует на трудовые отношения и режим труда: менеджерам, людям творческих профессий, журналистам, торговым агентам, программистам, консультантам можно повседневно работать удаленно, например, в режиме фриланс. В таком же режиме могут эффективно работать инвалиды или проживающие в удаленной местности люди: расширяется количество вакантных рабочих мест, на которые они претендуют.
Специалисты упоминают и другую «инвалидизацию»: острое переживание нехватки существенных моментов бытия при даже временном отсутствии доступа к компьютерам, смартфону, планшету, гаджетам и девайсам (Рассказова и др., 2015). «День без телефона и компьютера» всякий раз переживается весьма тяжело. В скандинавских странах утверждается, что доступ к Интернету – это одно из неотъемлемых человеческих прав; но при этом множество людей обходятся (полностью или частично) без доступа к технологиям и не считают себя обделенными. Известно, что одни родители ограничивают доступ своих детей к применению Интернета, в то время как другие не делают этого. В то же время отечественными и зарубежными специалистами единогласно признается значимость воздействия цифровых технологий на подрастающие поколения, в особенности на относительно ранних стадиях социализации (Марцинковская, 2010; Солдатова и др., 2018).
Изобилие средств фиксации изображений и звуков «засоряет» пространство Интернета за счет любительских фотографий, видеоизображений, музыкальных сочинений и т.п. Возможно, в последующем окажется необходимой «экологическая» программа освобождения кибер-пространства от никем не востребованных избыточных элементов, от их копий и «зеркал»; с другой стороны, развитие технологий ведет к «устареванию» некогда популярных форматов и к затруднению доступа к ранее выполненным документам.
Погружение (иммерсия) в пространство Интернета может быть полным или частичным, временным или постоянным. Возражения против увлечения сервисами Интернета опираются на представления об (1) опасностях зависимости от Интернета (или от отдельных Интернет-сервисов – игровых, коммуникативных и др.) и (2) возрастании агрессивности и жестокости как результате участия в компьютерных играх – например, за счет действия психологического механизма десенситизации.
Интернет-зависимость может считаться одним из проявлений погружения. Она относится к числу поведенческих зависимостей, а среди последних – технологических зависимостей. Феномены зависимости от Интернета известны уже более 20 лет, в течение этого периода недостаточное внимание уделялось методологии, выработке критериев, согласованности разновременных данных. В последние годы, правда, предпринимаются усилия, направленные на увеличение надежности получаемых результатов, а в МКБ-11 появилось упоминание об опасности заболеваний, вызванных компьютерными играми.
Сильную полемику вызывают представления о перспективах развития агрессивности и жестокости у игроков в компьютерные игры (Войскунский, 2010). Утверждение, что рост агрессивности имеет место, опирается на корреляционные исследования, в то время как нет установленной причинно-следственной связи между увлечением компьютерной игрой и развитием агрессивности и жестокости у детей и подростков. Причиной разных точек зрения выступает различие научных подходов к проблеме, ее терминологическая непроработанность. Тезис о развитии агрессивности и жестокости (в результате, например, десенситизации) не получил убедительного решения даже в более разработанной проблемной области – влиянии на подрастающее поколение телевидения и кинематографа.
Распределенность поведения: в киберпространстве относительно нетрудно отыскать единомышленников, выполнить деловые и/или личные взаимодействия, согласовать общие действия, распределить рабочие операции. В социологии признается ценность т.н. слабых связей (Грановеттер, 2009) между людьми для проведения ими досуга, получения информации, повышения эффективности труда, гражданского участия. Для слабых связей одно из лучших средств обеспечения и поддержки – это Интернет. Сервисы Интернета способствуют созданию новых видов слабых связей (напр., сообществ по интересам), которые зачастую не ведут к долговременным и тесным личным отношениям; переменный состав сообществ на основе слабых связей соответствует интересам самих участников. Участие в социальных сетях опирается по большей части на слабые связи. Как общности с размытыми границами и неинтенсивными контактами между своими членами, социальные сети отличаются от таких объединений, как группы. Благодаря Интернету такие сети-сообщества стали глобальными, зачастую не только массовыми, но и эффективными, а число сетевых любительских проектов активно множится (Ширки, 2012).
Следует ожидать, что стремительное развитие сетевых цифровых технологий будет способствовать появлению новой феноменологии, связанной с человеческим поведением.
1. Белинская Е.П. Психология Интернет-коммуникации. М.: МПСУ; Воронеж: НПО «МОДЭК», 2013.
2. Войскунский А.Е. Развивается ли агрессивность у детей и подростков, увлеченных компьютерными играми? // Вопросы психологии. 2010. № 6. С. 119–130.
3. Войскунский А.Е. Cоциальная перцепция в социальных сетях // Вестник Московского университета. Серия 14. Психология. 2014. № 2. С. 90–104.
4. Войскунский А.Е. Поведение в киберпространстве: психологические принципы // Человек. 2016. № 1. C. 36–49.
5. Грановеттер М. Сила слабых связей // Экономическая социология. 2009. Т. 10. № 4. С. 31–50.
6. Марцинковская Т.Д. Информационное пространство как фактор социализации современных подростков // Мир психологии. 2010. № 3. С. 90–102.
7. Рассказова Е.И., Емелин В.А., Тхостов А.Ш. Диагностика психологических последствий влияния информационных технологий на человека. М.: Акрополь, 2015.
8. Смолл Г., Ворган Г. Мозг онлайн: Человек в эпоху Интернета. М.: КоЛибри, 2011.
9. Солдатова Г.У., Рассказова Е.И., Нестик Т.А. Цифровое поколение России: компетентность и безопасность. М.: Смысл, 2018.
10. Файола Э., Войскунский А.Е., Богачева Н.В. Человек дополненный: становление киберсознания // Вопросы философии. 2016. № 3. C. 147–162.
11. Ширки К. Включи мозги. Свободное время в эпоху Интернета. М.: Карьера Пресс, 2012.
12. Yee N. The Proteus Paradox: How Online Games and Virtual Worlds Change Us–And How They Don't. Yale University Press, 2014.
Abstract. The leading directions of cyberpsychological studies describing human behavior (interactive, cognitive, gameplaying, consumer, etc.) on the Internet are introduced and discussed. These directions include: anonymity, hybrid behavior (transfer from virtual to real life and vice versa), leveling up reputation, mobility, immersion, distribution.
Keywords: cyberpsychology, virtuality, anonymity, hybrid behavior, leveling up reputation, mobility, immersion, distributed behavior.
Аннотация. В статье рассматриваются проблемы, которые ставит внедрение технологий «слабого», или специализированного, искусственного интеллекта в повседневную жизнь для психологической науки и практики. Обращается внимание на исследование последствий использования алгоритмов для когнитивного и эмоционального развития личности; влияние культурных различий на разработку и подходы к использованию ИИ; возможности, открываемые ИИ для увеличения осознанности, конструирования личностью своей идентичности, образа Я и временной перспективы, для целенаправленного управления самопрезентацией; влияние программируемости мира на процессы каузальной атрибуции и доверие к социальным институтам; последствия использования машинного обучения в системах поддержки группового принятия решений; влияние ИИ на правовое сознание и способы мобилизации права. Особенно острыми признаются психологические проблемы, связанные с появлением «лишних людей», потерявших работу в ходе автоматизации. Автор обращает внимание на вероятность снижения осознанности и рефлексивности общества под влиянием цифровой «архитектуры выбора», а также на увеличение культурного разрыва между теми, кто готов к неопределенности и выбору, и теми, кто стремится избежать необходимости что-либо выбирать, перекладывая ответственность на обезличенные алгоритмы.
Ключевые слова: искусственный интеллект, машинное обучение, осознанность, групповое принятие решений, каузальная атрибуция, социальное доверие, толерантность к неопределенности, архитектура выбора.
Среди технологий, стремительно меняющих повседневную жизнь людей, системы на основе «слабого» искусственного интеллекта занимают особое место. Во-первых, в эпоху, когда технологический оптимизм сопровождается социальным пессимизмом, именно с этими технологиями связана надежда на улучшение работы социальных институтов и оздоровление целых сфер жизни общества, таких как государственное управление, коммунальные услуги, общественный транспорт, здравоохранение, даже образование и СМИ. Машинное обучение, анализ больших данных и блокчейн рассматриваются как своего рода лекарство или даже протез для слабеющего социального доверия. Во-вторых, существует возможность появления «сильного» искусственного интеллекта, который, в отличие от других технологий, не только в массовом сознании, но и среди экспертов наделяется характеристиками субъекта, представляется как сила, способная со временем подчинить себе человека (Turchin, Denkenberger, 2018). Как показывают проведенные нами эмпирические исследования, отношение молодежи к технологиям искусственного интеллекта существенно различается в зависимости от сферы их применения, при этом наибольшие опасения вызывают автономные киберфизические системы, предполагающие вмешательство в человеческое тело и в процессы принятия решений (Нестик, 2018).
Одна из причин тревоги по поводу развития искусственного интеллекта связана с так называемой проблемой «черного ящика»: не только политики и обыватели, но и сами разработчики не могут в точности объяснить логику, лежащую в основе тех или иных заключений, сделанных самообучающейся нейросетью (Knight, 2017). Влияние таких алгоритмов на общество трудно оценить, так как их коды защищены коммерческой тайной, а истинные цели часто не ясны.
Искусственный интеллект, интернет вещей и анализ больших данных являются ключевой частью того пакета цифровых технологий, которые лежат в основе автоматизации, «платформенной экономики» и сдвига границ отраслей. По мнению экспертов Price Waterhouse Coupers, влияние этих технологий на общество не будет мгновенным, и будет нарастать в виде трех волн автоматизации. Первая волна завершится к середине 2020-х гг., она охватила прежде всего финансовый, IT и телекоммуникационный секторы и затрагивает в основном легко автоматизируемые операции с доступными данными. Вторая волна к концу 2020-х будет связана с оснащением людей-операторов новыми физическими и когнитивными возможностями: охватит производство, хранение и доставку, а также сферу розничных продаж. Наконец, третья волна к середине 2030-х гг. будет связана с появлением автономных систем (например, транспортных), где принятие решений в меняющейся обстановке будет доверено искусственному интеллекту. Эти изменения по-разному ощущаются людьми в зависимости от страны проживания и профессии, например, ожидается, что в Юго-Восточной Азии, Северной Европе и России влияние автоматизации затронет меньше рабочих мест по сравнению с Восточной Европой и США (Parlett et al., 2018).
В отличие от европейских стран и США, в российском массовом сознании последствия автоматизации труда пока недооцениваются. Как показал опрос россиян, проведенный ВЦИОМ по репрезентативной выборке в декабре 2017 г., 74% убеждены, что в обозримом будущем их рабочее место не смогут занять роботы (Роботизация работы…, 2017). При этом 73% вообще никогда не задумывались об этой проблеме. Большинство (62%) считают тенденцию к замене людей на рабочих местах роботами и алгоритмами неправильной, причем наиболее категорично это мнение отстаивает именно молодежь, а не старшее поколение (так считают 70% в группе 18–24 лет по сравнению с 55% в группе 45–59 лет).
Внедрение технологий «слабого», специализированного искусственного интеллекта (ИИ) в повседневную жизнь ставит перед психологической наукой и практикой целый ряд проблем, актуальность которых будет нарастать в ближайшие годы. Анализ этих проблем позволяет сформулировать несколько перспективных направлений социально-психологических исследований.
Чрезвычайно актуальным сегодня является исследование последствий использования алгоритмов для когнитивного и эмоционального развития личности. Например, остается не вполне ясным, как распределение когнитивных задач между ИИ и человеком повлияет на развитие интеллекта и когнитивный стиль. Например, как изменится роль эмоций в человеческом познании? Повысит ли использование систем распознавания лиц эмоциональный интеллект человека? С другой стороны, нужно разобраться в том, как особенности мышления самих разработчиков и пользователей самообучающихся алгоритмов влияют на окружающий нас, все более программируемый мир. Как будет развиваться ИИ в культурах с холистическим и аналитическим мышлением?
Влияние культурных различий на разработку и подходы к использованию ИИ остается пока не изученным. Между тем, значимость этой проблемы определяется не только растущим влиянием машинного обучения на интеллект интернет-пользователей, но и в связи с разворачивающейся конкуренцией между Китаем, Россией, США и Европой в области создания ИИ. По данным агентства CB Insights, в 2017 г. доля Китая в общемировом финансировании стартапов по разработке ИИ составила 48%. Использование ИИ в системах стратегической безопасности и кибероружия требует учета культурных и психологических особенностей взаимодействия человека с искусственным интеллектом. Если влияние культурных особенностей обучающих выборок, а также кросс-культурных различий самих разработчиков и заказчиков ИИ на работу таких систем подтвердится, то возникает еще один вопрос: как эти различия повлияют на взаимодействие между двумя и более конкурирующими системами ИИ?
Развитие систем с использованием искусственного интеллекта окажет влияние не только на когнитивные процессы, но и на целый ряд личностных феноменов: Я-концепцию, самоотношение и способы самопрезентации, стратегии коупинга, временную перспективу и др. Например, расширятся возможности для конструирования своей идентичности и целенаправленного управления самопрезентацией. Развитие интернета вещей, персональных помощников и возможностей для тонкой настройки окружающего личность цифрового мира при помощи самообучающихся алгоритмов приведет к формированию расширенного образа Я, включающего в себя более отчетливое представление о том, как нас воспринимают окружающие, каково наше физическое и эмоциональное состояние. При этом уже сегодня у пользователей социальных сетей появляется возможность в режиме реального времени сравнивать себя с другими людьми по гораздо большему числу физических, психологических и социальных параметров. Появится больше оснований для чувства депривации и несправедливости. Создание различных социальных рейтингов на основе обрабатываемых алгоритмами цифровых следов может привести как к обострению чувствительности к социальному сравнению, так и к десенсибилизации, безразличию, особенно если сравнение оказывается не в нашу пользу. Требуются специальные исследования того, как эти изменения скажутся на первичной и вторичной социализации личности.
Возможность анализа цифровых следов личности, накопленных за десятилетия, с помощью ИИ расширит временную перспективу в прошлое и будущее. Эффекты автобиографической памяти, искажения при прогнозировании человеком своих эмоциональных реакций и поступков, эффект дисконтирования будущего – все это будет корректироваться ИИ на основе нашего реального поведения в прошлом, а также больших данных о поведении других людей. Последствия этих изменений для личности уже сегодня можно моделировать на основе лабораторных экспериментов и анализа Big Data.
Однако искусственный интеллект как инструмент повышения осознанности будет востребован далеко не всеми. Более вероятен спрос на те его функции, которые связаны с когнитивным упрощением действительности. Развитие цифровых технологий, в том числе полномасштабное внедрение машинного обучения в повседневную жизнь, углубляет культурный разрыв между теми, кто готов к неопределенности и выбору, и теми, кто стремится избежать необходимости что-либо выбирать. Искусственный интеллект дает возможность личности переложить ответственность за свои действия на обезличенный алгоритм и его разработчиков. Это уже происходит в сфере таргетированной интернет-рекламы и новостей, где персонализация контента помещает человека в «пузырь» его собственных интересов, отменяя необходимость самостоятельно искать информацию.
Более того, алгоритмы превращаются в «архитектуру выбора», подталкивающую нас к решениям, которые должны повысить качество нашей жизни (Талер, Санстейн, 2017). Даже если в основе такого цифрового патернализма будут либеральные ценности, – что кажется маловероятным в культурах с вертикальным коллективизмом, – использование алгоритмов, корректирующих несовершенство человеческой природы ради благих целей, может способствовать снижению осознанности и рефлексивности общества.
В этой связи нельзя не упомянуть о растущей актуальности исследований, направленных на поиск психологических механизмов, которые делают личность уязвимой в отношении информационных компаний в социальных медиа, опирающихся на технологии ИИ. Сегодня специально обученные нейросети позволяют создавать вымышленный видеоконтент, неотличимый от настоящего. Созданные искусственным интеллектом видеодвойники политиков или значимых для конкретного человека людей могут говорить заданные тексты, обращаться с призывами, которых никогда не произнесли бы их реальные прототипы. Стало возможно управление такими видеодвойниками в режиме реального времени (Memes That Kill, 2018). Использование ИИ позволяет перевести информационные войны в полностью автоматизированный режим, когда нейросети сами скачивают метаданные «мишеней» и анализируют их психологический профиль по цифровым следам в поиске уязвимостей, затем генерируют искусственный видеоконтент с учетом этих психологических профилей, организуют армию ботов для его вброса в социальные сети, таргетируют сообщения для тех пользователей, которые с наибольшей вероятностью перешлют эту информацию своим друзьям, а затем проводят автоматизированную оценку разрушительного воздействия информационной кампании на общество страны-противника.
Сегодня вновь приобретают актуальность исследования конформности и подчинения, однако, в роли авторитетного другого будут выступать не экспериментаторы, а киберфизические системы, искусственный интеллект или специалисты по большим данным, психологически бесконечно далекие для обывателя. Чрезвычайно важно изучить, как все большая «искусственность» управляемой нейросетями повседневной жизни повлияет на фундаментальные психологические феномены – объяснение человеком своих успехов и неудач, веру в способность влиять на свое будущее, убеждение в справедливости мира, доверие к социальным институтам.
Перечисленные нами проблемы станут обостряться по мере того, как автоматизация будет приводить к потере все большего числа рабочих мест, особенно в массовых профессиях – среди продавцов, водителей и грузчиков, бухгалтеров, юристов, программистов. Потеряв работу из-за внедрения технологий искусственного интеллекта, они все равно будут вынуждены этими технологиями пользоваться. Какие требования будут предъявлять к искусственному интеллекту люди, вынужденные менять профессиональную идентичность? Каковы социально-психологические последствия появления в обществе большого количества «лишних людей»?
Целый ряд важных направлений исследований можно выделить в связи с влиянием ИИ на межличностные отношения и социальные группы. Применение машинного обучения уже сегодня влияет на формирование персонального социального капитала и межличностное сравнение в социальных сетях, подсказывая нам людей, похожих на нас. Как повлияют персональные помощники на процессы каузальной атрибуции? Будем ли мы по-прежнему более склонны объяснять поведение других людей их личностными качествами, а не обстоятельствами? Внимание исследователей сосредоточено на том, как люди взаимодействуют в мультиагентных человеко-машинных системах, в том числе с социальными роботами. Особенно перспективными в этом направлении представляются модели «межличностного» восприятия роботов (Kotov, 2017), а также исследования психологии взаимодействия людей с роевым интеллектом (Карпов, 2018). Вместе с тем, недостаточно внимания уделяется тому, какое влияние слабый (специализированный) искусственный интеллект в качестве интеллектуального агента может оказывать на групповую динамику, как он участвует в групповой рефлексии, формировании ситуативной осознанности и ментальных моделей. Прежде всего это касается использования машинного обучения в системах поддержки группового принятия решений. Примером могут служить нейросети, которые по обмену сообщениями в корпоративных чатах дают не только оценку эмоционального состояния и лояльности участников той или иной команды, но и прогноз эффективности проектных групп. Как рекомендации основанных на ИИ экспертных систем будут влиять на принятие кадровых решений, ролевые ожидания участников, межличностное восприятие и внутригрупповое доверие? В каких случаях совместного принятия решений такая система должна быть наделена чертами виртуальной личности, действовать как «член команды», а в каких – полностью обезличена?
Развитие ИИ тесно связано с рынком больших данных, с борьбой за доступ к обучающим выборкам. Создание совместных баз данных, а также открытых платформ для обучения нейросетей типа Azure, потребует разработки социально-психологических технологий формирования не только межличностного, но и межгруппового доверия. Новый импульс получат исследования межгрупповых отношений в цифровой экономике, доверия клиентов к организациям, совместимости разных корпоративных культур обращения с ИИ.
Отдельной и крайне мало изученной областью является социальная психология разработчиков ИИ и робототехников (Голиков, 2018). Усложнение технологий приводит не к ослаблению, а к усилению роли человеческого фактора как причины крупных катастроф. Как психологические характеристики команды разработчиков влияют на создаваемые ими нейросети? Как групповая рефлексивность, коллективные эмоциональные состояния и способы разрешения конфликтов с заинтересованными сторонами проекта влияют на способность разработчиков вовремя обнаружить ошибки и оценить последствия некорректной работы алгоритма? Как в среде специалистов по большим данным и робототехников формируются нравственные нормы и представления о конечных пользователях? Как эти нормы и представления влияют на создаваемые ими алгоритмы?
Совершенно очевидно, что использование нейросетей в финансовых операциях и кредитном скоринге, рекламе, формировании новостного контента, работе государственных служб и системе здравоохранения открывает новую страницу для юридической психологии. С одной стороны, все более актуальными становятся исследования социально-психологической специфики киберпреступлений с использованием машинного обучения, а также готовности граждан обращаться к услугам хакеров для взлома или обхода значимых для них алгоритмов. Анализ Big Data открывает здесь новые возможности не только для участников теневой экономики, но и для психологов, их изучающих. С другой стороны, важно разобраться в том, как применение искусственного интеллекта повлияет на правовое сознание молодежи, на стратегии оправдания теневого поведения и экстремизма. Кроме того, появление общедоступных алгоритмов в сфере обработки обращений граждан и юридического консультирования может изменить способы мобилизации права в российском обществе. Наконец, специального изучения требуют психологические проблемы, которые возникают у работников органов защиты правопорядка при внедрении различных автоматизированных систем выявления и прогнозирования преступлений в условиях дефицита ресурсов для борьбы с этими правонарушениями.
1. Голиков Ю.Я. Неопределенность и риски традиционных и новых областей высоких технологий и актуальные психологические проблемы их развития // Актуальные проблемы психологии труда, инженерной психологии и эргономики: Сб. научных трудов. Вып. 8 / Под ред. А.А. Обознова, А.Л. Журавлева. М.: Изд-во «Институт психологии РАН», 2018. С. 11–29.
2. Карпов В.Э. От роевой робототехники к социуму роботов // Искусственный интеллект: проблемы и пути решения – 2018: Материалы конференции. М., 2018. С. 122–130.
3. Нестик Т.А. Социально-психологические аспекты отношения человека к новым технологиям // Актуальные проблемы психологии труда, инженерной психологии и эргономики: Сб. научных трудов. Вып. 8 / Под ред. А. А. Обознова, А. Л. Журавлева. М.: Изд-во «Институт психологии РАН», 2018. С. 50–73.
4. Роботизация работы: возможность или опасность? // ВЦИОМ. № 3538. 4 декабря 2017. URL: https://wciom.ru/index.php?id=236&uid=116605 (дата обращения: 05.01.2018).
5. Талер Р., Санстейн К. Nudge. Архитектура выбора. Как улучшить наши решения о здоровье, благосостоянии и счастье. М.: Манн, Иванов и Фербер, 2017.
6. Knight W. The Dark Secret at the Heart of AI // MIT Technology Review. 11 April 2017. URL: https://www.technologyreview.com/s/604087/the-dark-secret-at-the-heart -of-ai/ (дата обращения: 07.01.2018).
7. Kotov A. A computational model of consciousness for artificial emotional agents // Psychology in Russia: State of the Art. 2017. V. 10. N. 3. P. 57–73.
8. Memes That Kill: The Future of Information Warfare // CBInsights Re-search Briefs. 3 May 2018. URL: https://www.cbinsights.com/research/future-of-information-warfare (дата обращения: 07.01.2018).
9. Parlett N., Foyster R., Ho P. Will robots really steal our jobs? An international analysis of the potential long term impact of automation. PwC, 2018. URL: https://www.pwc.com/hu/hu/kiadvanyok/assets/pdf/impact_of_automatio n_on_jobs.pdf (дата обращения: 05.05.2018).
10. Turchin A., Denkenberger D. Classification of global catastrophic risks connected with artificial intelligence // ИИ & Society. 2018. P. 1–17. URL: https://doi.org/10.1007/s00146-018-0845-5 (дата обращения: 05.01.2018).
Abstract. The article discusses the problems posed by the introduction of technologies of "weak" or specialized, artificial intelligence in everyday life for psychological science and practice. Attention is drawn to the study of the implications of using algorithms for cognitive and emotional development; the impact of cultural differences on the development and approaches to the use of AI; the possibilities opened by the AI for increasing awareness and mindfulness, for constructing identity, self-image and temporal perspective, for impression management; the influence of the world programmability on causal attribution processes and trust in social institutions; the implications of machine learning in group decision support systems; the impact of AI on the legal consciousness and legal mobilization. The psychological problems associated with the emergence of "redundant people" who have lost their jobs during the automation process are recognized as particularly acute. The author draws attention to the likelihood of reduced awareness and reflexivity of society under the influence of the digital “choice architecture”, as well as the widening of the cultural gap between those who are ready for uncertainty and choice, and those who are trying to avoid having to choose something, shifting the responsibility to algorithms.
Keywords: artificial intelligence, machine learning, awareness, group decision making, causal attribution, social trust, tolerance for uncertainty, choice architecture.
Аннотация. Дается краткий обзор некоторых исследований дачи ложных подсказок и троянского обучения (обучения со скрытыми, не декларируемыми целями тому, о чем не подозревает обучаемый). Предлагается рабочая классификация, позволяющая различать ситуации ложных подсказок и троянского обучения, в разной степени связанные с речевой деятельностью как одной из важнейших для человека. С целью объединения исследовательского поля, отталкиваясь от аналогии с исследуемыми в настоящее время «отравляющими атаками» на системы машинного обучения, можно интерпретировать ложные подсказки и троянское обучение как «отравляющую атаку на семантическую сеть». Рассматриваются возможные аспекты проблемы, связанные с подавлением вербальной креативности и исполнения. В заключение ставится вопрос о динамике представленности нарративов о ложных подсказках (обучении со злым умыслом) в различные периоды и в различных обществах, в том числе цифровом.
Ключевые слова: троянское обучение, отравляющая атака, вербальная креативность, семантическая сеть, нарратив угрозы.
В театральной среде рассказываются истории о розыгрышах, когда актера более опытные партнеры предостерегают перед выходом на сцену: «Ты там не скажи … вместо …» (за «не скажи» идет неправильное слово или смешно переиначенная реплика). И именно то, от чего якобы отговаривали, на сцене закономерно и произносится – на радость советчику и залу. Другой вариант – неправильная подсказка от суфлера, решившего, например, проучить зазнавшегося актера или актрису. Эти истории – часть более широкого пласта нарративов, восходящих к таким общекультурным формам накопления и передачи социального опыта, как народные сказки. В них нередко представлены ситуации, когда одни персонажи учат других тому, что для последних невыгодно или опасно: Баба-Яга учит Иванушку садиться на лопату, чтобы засунуть его в печь; лиса учит волка ловить рыбу на собственный хвост в проруби, в результате хвост примерзает, и волк его лишается; Братец Кролик учит Братца Лиса, как вести себя тому, кто хочет правдоподобно изобразить покойника при появлении друзей, и т. д.
Ложные наводки и подсказки, акты «троянского» (обманного) обучения стали объектом научного изучения (Лефевр, 1973; Поддьяков, 2006, 2011; Kline, 2015; Rhodes et al., 2015).
В.А. Лефевр в своей теории конфликтующих структур и рефлексивного управления ввел понятие «формирование доктрины противника посредством его обучения». Одно из проявлений такого обучения на материале спорта состоит в том, что «футболист-нападающий систематически сознательно "попадается" на определенное действие одного из защитников. В результате защитник закрепляет данное действие как стандарт противодействия данному нападающему, что и используется нападающим в решающий момент» (Лефевр, 1973, с. 51).
Понятие «троянское обучение» (обучение со скрытыми, не декларируемыми целями тому, о чем не подозревает обучаемый) пересекается с понятием «формирование доктрины противника посредством его обучения», но не совпадает с ним (Поддьяков, 2011). Не всякое формирование доктрины противника посредством его обучения является скрытым троянским обучением. Например, в случае убежденности субъекта в своем явном превосходстве и в будущем проигрыше соперника он может предъявить ему свою и его доктрину для сопоставления в явном виде, не таясь, без скрытых манипуляций, в расчете на здравый смысл противостоящего субъекта. Также есть троянское обучение «с добрым умыслом», рассматривающее другого субъекта не как противника, а как не вполне разумного подопечного, которому из лучших побуждений стремятся помочь – например, вводя содержание, которому ученик не хочет обучаться, в особо привлекательной оболочке, и именно она выглядит для ученика главной составляющей (Boyle, 2001; White, 2004). При этом психологическая манипуляция и обучение тому, о чем не догадывается обучаемый, есть в ситуациях троянского обучения обоих типов – и со злым, и с добрым умыслом.
Мы провели теоретический анализ явления троянского обучения и серию эмпирических исследований с участием людей разного возраста (Поддьяков, 2006, 2011). Так, дошкольникам описывалась сказочная ситуация, в которой злые гиены решили поохотиться на беззащитных птенчиков, а храбрый львенок Симба решил их спасти. При этом и гиенам, и львенку для реализации их жестоких или же гуманных замыслов не хватает владения некоторыми знаниями и умениями. Ребенку задавались вопросы, надо ли учить гиен (или львенка) правильному или неправильному птичьему языку, учить ли их хорошо лазать по деревьям и т.д. Абсолютное большинство детей 5–6 лет давали ответы о необходимости правильного, эффективного обучения львенка и обманного обучения гиен. Это вполне согласуется с житейскими наблюдениями – на вопрос актера, играющего в спектакле волка, о том, куда убежали зайцы, дети отвечают так, чтобы обмануть его. Но в нашем эксперименте речь шла не просто об указании неправильного направления, а о некотором базовом понимании ребенком, что такое обучение, и понимании различных последствий правильного и обманного обучения в разных областях (Поддьяков, 2006).
В аппаратурном эксперименте M. Rhodes с коллегами показано, что дошкольники могут учить другого правильно, а могут, обманывая – создавая условия, чтобы другой сделал неправильные выводы из представленной ему информации. А именно, дети демонстрировали кукле работу технической игрушки на релевантных примерах, если взрослый просил ребенка показать кукле такие примеры, из которых можно узнать правило работы этой игрушки. Если же взрослый просил ребенка подшутить над куклой и запутать ее так, чтобы она пришла к неправильному заключению о работе устройства, дети подыскивали и показывали кукле нерелевантные примеры, провоцирующие ошибочный вывод (Rhodes et al., 2015). Задача требовала понимания логики работы устройства, умения строить умозаключения, а также социального интеллекта (встать на позицию другого, понять, из какой информации какие выводы он может сделать, и суметь обмануть его).
М. Клайн, ссылаясь на С.М. Камакау, пишет, что на Гавайях, где между жителями-рыбаками была очень высока конкуренция за рыбные ресурсы, дети должны были быть «скептичными учениками», поскольку имелся значимый риск стать жертвой обмана. Она также ставит более общую проблему «скептицизма» учащихся по отношению к информации, получаемой, возможно, от не вполне добросовестного «донора» (Kline, 2015).
Ситуации троянского обучения достаточны распространены в обычной жизни – таково мнение участников опроса – 393 россиян и 279 американцев от 16 до 59 лет. Более 80% респондентов – и россиян, и американцев – ответили, что обучение «со злым умыслом» бывает в реальной жизни и имеет место в школах и университетах. Около половины участников отмечали случаи, когда их учебе мешали из недружественных побуждений, а также пытались проводить по отношению к ним обучение «со злым умыслом». От 9 до 23% респондентов в разных подгруппах (в том числе некоторые профессиональные преподаватели) ответили, что сами проводили такое обучение по отношению к кому-то (Поддьяков, 2011).
В области машинного обучения, где системам искусственного интеллекта необходимы большие массивы обучающих примеров, изучаются возможности хакеров в отношении организации «отравляющих атак» на базы этих примеров (Jagielski et al., 2018). Речь идет о том, чтобы, скрыто подгрузив в базу минимальное количество особым образом подобранных примеров, нарушить процесс эффективного обучения и последующего принятия решений. (Подходящая метафора – минимально необходимая ложечка дегтя для порчи наибольшей бочки меда.) Понятно, что порча, «отравление» совокупности примеров, собранных для обучения распознавания болезни, может иметь серьезные практические следствия. Пока, к счастью, таких прецедентов не было, но превентивное исследование возможностей в этой области ведется – как и разработка контрмер (Там же).
При этом, подчеркнем, здесь пока не идет речь об изменении самой обучаемости системы хакером при атаке. Атакуется, «отравляется» лишь массив предъявляемых примеров. Но теоретически возможны атаки именно на обучаемость – если рассматривать ее как потенциально подверженную влиянию техническую характеристику системы (Поддьяков, 2007).
Далее мы обратимся к пересечению некоторых из обозначенных выше тем. Это возможная модель снижения, подавления вербальной креативности и исполнения путем «отравляющей атаки» на семантическую сеть.
Предложим рабочую классификацию, позволяющую различать ситуации, в разной степени связанные с речевой деятельностью – одной из важнейших для человека. А именно, ложные подсказки («отравляющие атаки», троянское обучение), в разной степени связанные с речевой деятельностью, можно классифицировать по параметрам «мишень – средство влияния» следующим образом.
1. Мишени:
а) речевая деятельность;
б) неречевая деятельность.
Критерий различения: используется ли ложная подсказка («отравляющий пример», троянское обучение) для того, чтобы вызвать сбой, неуспех речевой или же другой – неречевой – деятельности.
2. Средства ложной подсказки (троянского обучения):
а) речевые (вербальные);
б) невербальные средства (картинка, указательный жест и т. д.).
Тогда в рамках этой рабочей классификации мы получаем 4 класса ситуаций.
1. Мишень – речевая деятельность, средство влияния – речевой, вербальной природы. Примеры в человеческом общении – актерские ложные подсказки, обучение не понимающих «иностранным языкам», нецензурным выражениям под видом благопристойных и пр.
2. Мишень – речевая деятельность, средство влияния – невербальные наводки, указания (например, указательный жест не на то место в учебнике, которое надо читать, а на другое, для соученика при опросе учительницей).
3. Мишень – неречевая деятельность, средство влияния – речевая деятельность (пример – вербальная инструкция новичку, как сделать что-то технологически неправильное, чтобы подшутить или же скомпрометировать, устранить потенциального конкурента).
4. Мишень – неречевая деятельность, средство влияния – невербальные наводки, указания (например, указательный жест, провоцирующий неправильное действие).
В предлагаемых терминах, ложные подсказки, «вредные советы» актеру («Ты там не скажи … вместо …») – это «отравляющая атака» на его семантическую сеть. То, от чего якобы предостерегают, становится «отравляющим», «заякоривающим», закрывающим всё остальное примером с неадекватно большим весом в семантической сети. Настолько большим, что произнесение на сцене озвученного до этого «шутником» неправильного варианта становится очень вероятным. При этом в живом общении людей огромное значение имеют и личные коммуникативные способности «подсказчика», включая невербальную составляющую, а также подверженность выбранной жертвы психологическому влиянию (вообще или только влиянию данного человека, в данных обстоятельствах).
При моделировании отравляющей атаки на виртуальную семантическую сеть речь может идти о влиянии посредством изменения весов узлов и связей. Напрашивающаяся грубая метафора – «дебилизация» сети в отношении возможностей поиска на ней интеллектуальных и креативных решений. Но, теоретически рассуждая, «отравляющая атака» может быть направлена и на неадекватное повышение креативности. Если семантическая сеть, поддерживающая разработку креативных рекламных слоганов, в результате хакерской атаки начнет выдавать чересчур креативные и потому «дико выглядящие», непонятные для большинства целевой аудитории слоганы, эту атаку тоже можно считать «отравляющей» – интеллектуальная система сильно отклонилась от требуемого оптимума решений.
Анализируя динамику представленности нарративов о ложных подсказках (обучении со злым умыслом) в различные периоды и в различных обществах можно оценить воспринимаемую важность (опасность) этих явлений в общественном сознании. В том числе, представляет интерес вопрос, претерпит ли эта динамика изменения в «цифровом обществе», где идея троянского обучения (в виде отравляющих атак на системы машинного обучения) органично встраивается в представления о нарастающих возможностях взлома всего и вся – и, вероятно, укрепляет эти представления. Или же динамика представлений не изменится, а просто в массив сюжетов о ложных подсказках и обучении со злым умыслом будет добавлено еще несколько подтипов, что на настоящий момент тоже можно считать вероятным.
1. Лефевр В.А. Конфликтующие структуры. М.: Советское радио, 1973.
2. Поддьяков А.Н. Противодействие обучению конкурентов и троянское обучение в информационных технологиях // 1-ая Международная конференция по бизнес-информатике: Труды международной научно-практической конференции, 9–11 октября 2007 г. Звенигород, 2007. С. 261–269.
3. Поддьяков А.Н. Психология конкуренции в обучении. М.: Изд. дом ГУ-ВШЭ, 2006.
4. Поддьяков А.Н. Троянское обучение в экономическом сознании и поведении // Культура и экономическое поведение / Под ред. Н.М. Лебедевой, А.Н. Татарко. М.: МАКС Пресс, 2011. С. 421–444.
5. Boyle M. The Computer as a Trojan horse // Journal of Computer Assisted Learning. 2001. Vol. 17. P. 251–262.
6. Controlling the message: preschoolers’ use of information to teach and deceive others / Rhodes M., Bonawitz E., Shafto P. et al. // Frontiers in Psychology. 2015. № 6. Р. 867.
7. Kline M. How to learn about teaching: an evolutionary framework for the study of teaching behavior in humans and other animals // Behavioral and Brain Sciences. 2015. Vol. 38. Р. 31.
8. Manipulating machine learning: poisoning attacks and countermeasures for regression learning / Jagielski M., Oprea A., Biggio B. et al. URL: https://arxiv.org/abs/1804.00308 (дата обращения: 06.02.2018).
9. White A.L. The pedagogical Trojan horse: handheld technologies in the secondary mathematics classroom // Proceedings of the 2nd National Conference on Graphing Calculators. October 4–6, 2004. P. 105–112.
Abstract. A brief review of studies of false tips and “Trojan horse” teaching is presented. A classification giving opportunity to distinguish between situations of false tips (“Trojan horse” teaching) differing in their relations to verbal activity is described. Based on an analogy with “poisoning attacks on machine learning”, one can interpret some verbal false tips and “Trojan horse” teaching as “poisoning attacks on a semantic network”. Various aspects of inhibition of verbal creativity and performance are considered. An issue of dynamics of narratives of false tips and teaching “with evil intent” in various periods and various societies including digital one is introduced.
Keywords: “Trojan horse” teaching, poisoning attack, verbal creativity, semantic network, threat narrative.
Аннотация. В статье приводится краткий обзор актуального состояния основных проблем современной киберпсихологии компьютерной игры и подчеркивается противоречивый статус данного предмета исследования. В настоящее время в изучении компьютерной игровой деятельности наметились изменения, в частности: получила официальное признание ВОЗ зависимость от компьютерных игр; нейропсихологические исследования отчасти опровергли распространенные данные о влиянии игрового насилия на жесткость и снижение эмпатии у компьютерных игроков в реальной жизни, также критике подвергаются и исследования развивающих возможностей компьютерной игровой деятельности. Текущий уровень развития науки не позволяет сделать однозначные выводы о том, являются ли компьютерные игры фактором риска или источником развития, а дальнейшее развитие этой проблематики возможно в том числе с опорой на объяснительные принципы отечественной психологии.
Ключевые слова: компьютерная игра, геймеры, зависимость от видеоигр, компьютерные игры и агрессия, когнитивные функции.
Компьютеры и интернет играют важную роль в повседневной жизни современного человека, проникают во все сферы деятельности и радикально их преобразуют. При этом, однако, необходимо помнить, что информационные технологии выступают новым орудием выполнения тех или иных действий, но именно человек формирует содержание интернета, социальных сетей, компьютерных игр и т. д. Включенность в деятельность, опосредствованную информационными технологиями, однако, также может влиять на психику и личность человека, что формирует потребность в ее психологическом осмыслении и задает повестку для такой отрасли психологии как киберпсихология. А.Е. Войскунский определяет ее как «отрасль психологии, объединяющую (и отвечающую за) методологию, теорию и практику исследования видов, способов и принципов применения людьми социальных сервисов Интернета» (Войскунский, 2013, с. 88) и указывает на ее тесную взаимосвязь с другими направлениями психологии. В свою очередь, представления, сформулированные в других областях психологии, могут (и должны) выступать как объяснительные принципы того, как деятельность в виртуальном пространстве соотносится с реальностью и влияет на психику человека. В отечественной психологии таким объяснительным принципом может служить теория знакового опосредствования Л.С. Выготского, позволяющая рассматривать компьютеры как систему знаков, преобразующую человеческую деятельность, личность и психические процессы. Освоение и использование технологий подразумевает, что устоявшиеся формы деятельности начинают реализовываться с помощью новых средств (Войскунский, 2013). Так, игровая деятельность ребенка на компьютере отличается от игры с игрушками; общение в интернете имеет иное строение, чем лицом к лицу и т. д. Наряду с развитием психологических функций, переопосредствование и усложнение деятельности за счет введения новых знаковых систем может вести к формированию психологической специфики, которую необходимо учитывать, особенно учитывая ранее знакомство с компьютерами нового поколения пользователей.