Мир-фильтр. Как алгоритмы уплощают культуру
Шрифт:
В 1995 году Упендра Шардананд и Пэтти Маес из MIT Media Lab (медиалаборатории Массачусетского технологического института) описали в своей статье “социальную фильтрацию информации” – “технику создания персонализированных рекомендаций из любой базы данных для пользователя на основе сходства профилей интересов”. Эта работа опиралась на идеи Tapestry и стала ответом на перегруженность онлайн-информацией: “Объем значительно больше, нежели человек может отфильтровать, чтобы найти то, что ему понравится”. Авторы пришли к выводу о необходимости автоматизированных фильтров: “Нам нужна технология, которая поможет продраться через всю информацию, чтобы найти то, что нам действительно нужно, и избавит нас от того, с чем мы не хотим заморачиваться”. (Естественно, эта проблема актуальна до сих пор.) Шардананд и Маес утверждали, что у фильтрации на основе содержания есть существенные недостатки. Она требует перевода материала в данные, понятные машине, например в текст; ей не хватает интуитивной прозорливости, поскольку она может фильтровать только по терминам, которые вводит пользователь; и она не измеряет внутреннее
Социальная фильтрация информации позволяет обойти эти проблемы, поскольку основана на действиях людей-пользователей, которые самостоятельно оценивают содержание, используя как количественные, так и качественные суждения. Это больше похоже на сарафанное радио, когда мы получаем советы, что послушать или посмотреть, от друзей, чьи предпочтения схожи с нашими собственными: “Объекты рекомендуются пользователю на основе величин, присвоенных другими людьми со сходным вкусом”, – говорилось в статье. Сходство вкусов одного пользователя с другим определялось с помощью статистической корреляции. Чтобы давать музыкальные рекомендации, исследователи разработали систему под названием Ringo, использующую электронную почту. Пользователю предлагали первоначальную группу из 125 исполнителей, он выставлял оценки по шкале от 1 до 7, после чего строилась диаграмма его предпочтений. Затем программа сравнивала эту диаграмму с диаграммами других пользователей и подбирала музыку, которая человеку предположительно понравится (или совсем не понравится – такой вариант тоже был). Рекомендации Ringo также сопровождались указателем уровня уверенности, который выдавал вероятность того, что предложение окажется удачным, и позволял пользователю дополнительно подумать над предложенным алгоритмическим выбором. К сентябрю 1994 года у Ringo были двадцать одна сотня пользователей и пятьсот электронных писем в день с оценками музыки.
Ringo тестировала различные алгоритмы для принятия решений на основе музыкальных рейтингов. Первый алгоритм измерял несходство между вкусами пользователей и основывал рекомендации на максимальном сходстве. Второй измерял сходство, а затем использовал для принятия решений положительные и отрицательные корреляции с другими пользователями. Третий определял корреляцию между различными исполнителями и рекомендовал музыкантов, которые сильно коррелировали с теми, что уже нравились данному человеку. Четвертый алгоритм (по мнению исследователей, самый эффективный) подбирал пользователей на основе того, положительно или отрицательно они оценивали одни и те же вещи – иными словами, на основе совпадения вкусов. Сходство оказалось наилучшей переменной. Чем больше пользователей включалось в систему и чем больше сведений они предоставляли, тем лучше работала Ringo – некоторые пользователи даже назвали систему “пугающе точной”. Инновация Ringo заключалась в том, что она подтверждала: наилучшим источником точных рекомендаций или лучших индикаторов релевантности, скорее всего, являются другие люди, а не анализ самого содержания. Концепция отражала повышение важности человеческого вкуса.
Первые алгоритмы интернета разработали для того, чтобы просеивать огромное количество материала в поисках вещей, важных для пользователя, и затем представлять их в связном виде. Целью были рекомендации: рекомендовать ту или иную информацию, песню, картинку или новость в социальных сетях. Алгоритмическую подачу информации иногда более формально и буквально называют “рекомендательными системами” за простой акт выбора того или иного контента.
Первым полностью общедоступным интернет-алгоритмом, с которым сталкивался практически каждый пользователь интернета, стал алгоритм поиска Google. В 1996 году, учась в Стэнфордском университете, соучредители Google Сергей Брин и Ларри Пейдж начали работу над тем, что впоследствии превратилось в PageRank – систему ранжирования страниц интернета (который на тот момент насчитывал около ста миллионов документов); она просматривала веб-страницы и определяла, какие из них окажутся полезнее или информативнее. Алгоритм PageRank подсчитывал, сколько раз на данный сайт ссылались другие, подобно тому, как авторы научных работ ссылаются на результаты предыдущих серьезных исследований. Чем больше ссылок, тем более важной считалась страница. Показатель цитирования “согласуется с субъективным представлением людей о важности”, – писали Брин и Пейдж в 1998 году в работе “Анатомия системы крупномасштабного гипертекстового интернет-поиска”. Алгоритм PageRank объединил форму совместной фильтрации с фильтрацией на основе содержания. Связывая различные страницы, люди-пользователи формировали субъективную карту рекомендаций, которую учитывал алгоритм. Он также измерял такие факторы, как количество ссылок на странице, относительное качество этих ссылок и даже размер текста – чем он длиннее, тем более релевантным может оказаться текст для конкретного поискового запроса. Страницы с высоким значением PageRank с большей вероятностью появлялись в верхней части списка результатов, которые выдавала поисковая система Google.
Прогноз Пейджа и Брина
Пейдж и Брин хотели, чтобы их система была относительно нейтральной и оценивала каждый сайт исключительно с точки зрения его релевантности. Задача алгоритма заключалась в предоставлении пользователю наилучшей информации. Ориентирование поиска на определенный сайт или бизнес испортило бы результаты. “Мы полагаем, что поисковые системы, финансируемые за счет рекламы, будут по своей сути отдавать предпочтение рекламодателям и не учитывать нужды потребителей”, – писали предприниматели в 1998 году. И тем не менее в 2000 году они запустили Google AdWords – пилотный продукт компании для рекламодателей (сейчас он называется Google Ads). Забавно читать их критику сегодня, когда именно реклама обеспечивает подавляющую часть доходов компании – более 80 % в 2020 году. Поскольку алгоритм PageRank привел в поисковую систему Google миллиарды людей, компания также получила возможность отслеживать, что ищут пользователи, и таким образом продавать рекламодателям позиции в выдаче при определенных поисковых запросах. Как и результаты поиска, рекламные объявления, показываемые пользователю, тоже определяются алгоритмом. И эта реклама, построенная на поисковом алгоритме, сделала Google настоящим левиафаном.
К началу 2000-х годов наш цифровой опыт уже определялся алгоритмической фильтрацией. Сайт Amazon еще в 1998 году начал использовать совместную фильтрацию при рекомендациях товаров клиентам. Однако система компании не пыталась обнаруживать сходные профили пользователей, чтобы приблизительно оценивать вкусы, как это делала Ringo; она определяла товары, которые часто покупают вместе, – например, погремушка и детская бутылочка. Статья 2017 года, созданная одним из сотрудников Amazon, описывает подобные предложения на сайте:
На главной странице выделялись рекомендации, основанные на ваших прошлых покупках и просмотренных товарах… Корзина рекомендовала добавить другие товары – возможно, спонтанные покупки, которые делаются в последнюю минуту, а возможно, дополнения к тому, что вы уже рассматривали. По окончании заказа появлялись дополнительные рекомендации, предлагающие заказать товары позже.
Такие алгоритмические рекомендации напоминают полки, расположенные непосредственно перед кассой в супермаркетах, – последний стимул купить товары, которые могут вам пригодиться. Но в данном случае рекомендации подбирались индивидуально для каждого пользователя сайта, и в результате, как утверждала статья, получался “магазин для каждого покупателя”. Amazon обнаружила, что персонализированные рекомендации товаров гораздо эффективнее с точки зрения количества кликов и продаж, чем неперсонализированные методы маркетинга – например, реклама на баннерах и списки наиболее популярных товаров, которые нельзя нацелить столь же точно. Алгоритм рекомендаций продвигал бизнес и оказался удобен для покупателя, который получил возможность находить вещи, о необходимости которых даже не подозревал. (Прямо сейчас главная страница Amazon рекомендует мне мойку с аккумуляторным питанием и японскую сковороду для омлета.)
Первые подобные алгоритмы сортировали отдельные электронные письма, музыкантов (в отличие от конкретных песен), веб-страницы и коммерческие товары. По мере развития цифровых платформ рекомендательные системы переместились в более сложные области культуры и стали оперировать гораздо большими скоростями и объемами, обрабатывая миллионы твитов, фильмов, загруженных пользователями видеороликов и даже потенциальных партнеров на свиданиях. Фильтрация стала стандартным способом работы в интернете.
Эта история напоминает также о том, что рекомендательные системы – это не всезнающие сущности, а инструменты, созданные группами технических специалистов. Они могут ошибаться. Ник Сивер – социолог и профессор Университета Тафтса, изучающий рекомендательные системы. Его исследования посвящены человеческой стороне алгоритмов – тому, что думают об алгоритмических рекомендациях создающие их инженеры. В наших беседах Сивер всегда старался прояснить двусмысленную суть алгоритма, отделяя индивидуальное уравнение от корпоративных мотивов, лежащих в основе его разработки, и конечного воздействия на пользователя. “Алгоритм – это метонимическое обозначение для компаний в целом, – говорил он мне. – Алгоритма Фейсбука не существует; существует Фейсбук. Алгоритм – это способ рассказать о решениях Фейсбука”.