Выбрать главу

По мере того как развивался интернет и появлялись новые цифровые инструменты, компьютеризированная журналистика превратилась в то, что мы сегодня называем журналистикой данных, которая (среди прочего) включает визуальную журналистику, вычислительную журналистику, картирование, аналитику данных, разработку ботов и анализ алгоритмической ответственности. Однако дата-журналисты в первую очередь журналисты. Для нас данные – это источник, и, чтобы рассказывать истории, мы используем ряд цифровых инструментов и платформ. Иной раз истории касаются последних новостей; время от времени они развлекательные; порой это запутанное расследования. Но они всегда информативны.

Организация ProPublica, появившаяся в 2008 г., и Guardian долгое время являются лидерами в области журналистики данных[21]. ProPublica была основана на благотворительных началах ветераном The Wall Street Journal Полом Стайгером, однако достаточно быстро завоевала репутацию расследовательского локомотива. У самого Стайгера за плечами был колоссальный опыт расследовательской журналистики: с 1997 по 2007 г. он был главным редактором в The Wall Street Journal, за это время команда журнала 16 раз получала Пулитцеровскую премию. Свою первую награду команда ProPublica получила в мае 2010 г. А в 2011 г. они получили премию за материал, опубликованный исключительно онлайн.

Многие истории, получившие эту награду, были созданы людьми, среди которых был дата-журналист или хотя бы тот, кто себя таковым считает. В сентябре 2006 г. журналист и программист Адриан Головатый, создатель фреймворка Django (которым пользовались многие редакции), опубликовал онлайн-статью «Основной путь необходимой трансформации для сайтов новостных изданий» (A Fundamental Way Newspaper Sites Need to Change)[22]. Он настаивал на том, что редакциям необходимо перешагнуть традиционную модель создания статей и начать внедрять практику структурирования данных в инструментарий журналистов. Его манифест привел к тому, что вместе с Биллом Эдейром, Мэттом Уэйтом и их командой он создал фактчекинговый сайт PolitiFact, также награжденный Пулитцеровской премией в 2009 г. Во время запуска проекта Уэйт писал: «Сайт представляет собой концепт простой старой газеты, переделанной для интернета. Мы взяли за основу политическую историю “отряда правды”, когда репортер, анализируя рекламную кампанию или агитационную речь, сначала проверяет все факты и только потом пишет историю. Мы взяли этот концепт, разделили на основные части и превратили в сайт, работающий на основе данных и посвященный периоду президентских выборов 2008 г.»[23].

На этом Головатый не остановился и создал Every Block – первое новостное приложение, в котором были представлены данные о преступлениях c геолокациями. Именно там впервые использовался интерфейс Google Maps, что привело к тому, что API стал доступен рядовым пользователям[24].

Прорыв в журналистике данных случился в 2009 г., когда репортеры и программисты Guardian запросили (посредством краудсорсинга) 450 000 записей о расходах членов парламента. За этим последовал скандал: выяснилось, что депутаты оплачивали бытовые и конторские расходы из государственного бюджета. Guardian также искусно овладела компьютерным анализом неофициальных сведений и просочившихся документов, которые использовали, например, в рамках расследований в период войн в Афганистане и Ираке[25].

Другое знаковое расследование – проект The Wall Street Journal об анализе дискриминации цен[26]. Лидирующие сетевые магазины вроде Staples и Home Depot устанавливали на своих сайтах цены, которые менялись в зависимости от почтового индекса, который посетитель вводил. При помощи компьютерного анализа журналисты выяснили, что индекс, соответствующий условно более обеспеченной локации, приводил к более низким ценам, чем у тех, кто вводил индекс условно менее обеспеченных локаций.

Исследования придают журналистике данных определенную полноту, поскольку репортеры стремятся полагаться на научные методы анализа. Чтобы быть хорошим журналистом, нужно, с одной стороны, понимать, когда следует обращаться к эксперту в той или иной области и, с другой стороны, уметь отличать эксперта от подсадной утки. Дата-журналистам приходится совмещать ряд научных подходов из разных областей. В 2008 г. профессор Технологического института Джорджии Ирфан Эсса организовал первый симпозиум для программистов и журналистов. Это ежегодное событие, где журналисты, исследователи из различных областей компьютерных знаний, коммуникации, статистики, человеко-машинного взаимодействия, визуального дизайна и других делятся своими знаниями и выстраивают междисциплинарный диалог. Николас Диакопулос, профессор Северо-Западного университета, – один из основателей симпозиума и автор знаковых работ об алгоритмах обратного проектирования как способах поддержания подотчетности фигур принятия решений. В своем исследовании «Алгоритмическая ответственность: журналистские расследования вычислительных систем господства» (Algorithmic Accountability: Journalistic Investigation of Computational Power Structures) он описывает некоторые примеры собственных расследований и расследований коллег-журналистов, посвященные анализу алгоритмических «черных ящиков»[27].

вернуться

21

Lewis, “Journalism in an Era of Big Data”; Diakopoulos, “Accountability in Algorithmic Decision Making”; Houston, Computer-Assisted Reporting; Houston and Investigative Reporters and Editors, Inc., The Investigative Reporter’s Handbook.

вернуться

22

Holovaty, “A Fundamental Way Newspaper Sites Need to Change.”

вернуться

23

Waite, “Announcing Politifact.”

вернуться

24

Holovaty, “In Memory of Chicagocrime.org.”

вернуться

25

Daniel and Flew, “The Guardian Reportage of the UK MP Expenses Scandal”; Flew et al., “The Promise of Computational Journalism.”

вернуться

26

Valentino-DeVries, Singer-Vine, and Soltani, “Websites Vary Prices, Deals Based on Users’ Information.”

вернуться

27

Diakopoulos, “Algorithmic Accountability.”

полную версию книги