Новые исследования показали, что, вопреки распространенному мнению, относительный размер мозга у млекопитающих не только связан с интеллектом, но и обусловлен различными эволюционными факторами, влияющими на размер тела, включая адаптацию, вызванную массовым вымиранием и изменениями климата.
В международном исследовании – крупнейшем в своем роде – участвовала команда из 22 ученых, которые исследовали 1400 живых и вымерших видов млекопитающих. Эта новаторская работа собрала воедино уникальную хронологию эволюции мозга и размеров тела за последние 150 миллионов лет, показав, как “большемозговые” виды достигли своих экстремальных пропорций различными способами.
Например, человекообразные обезьяны имеют широкий диапазон размеров тела, но продемонстрировали общую тенденцию к увеличению как мозга, так и размера тела. Для сравнения, предковые гоминины, которые представляют человеческую линию, показали относительное уменьшение размера тела и увеличение размера мозга по сравнению с человекообразными обезьянами.
Полученные результаты также показали, что относительный размер мозга может вообще не иметь никакого отношения к интеллекту.
Масштабное исследование более 1400 видов может изменить наше понимание интеллекта
Имеет ли размер значение?
Итак, ученые наконец опровергли давнюю догму о том, что относительный размер мозга можно отождествить с интеллектом.
По мнению авторов работы, опубликованной в журнале Science Advances, иногда относительно большой мозг может быть конечным результатом постепенного уменьшения размера тела.
Это позволяет организму приспособиться к новой среде обитания или способу передвижения. Другими словами, вообще ничего общего с интеллектом.
Сравнение размеров мозга и тела, сохранившихся в летописи окаменелостей, позволило команде получить представление об исторических изменениях, происходящих на меняющемся экологическом фоне.
В результате удара, убившего динозавров, который положил конец меловому периоду, группа крошечных млекопитающих, таких как крысы, землеройки и летучие мыши, претерпела значительные изменения в масштабе их мозга и тела – по мере того, как они становились больше, их мозг тоже менялся.
Как выяснили авторы нового исследования, когда дело доходит до интеллекта других животных, размер – это только один элемент, который имеет значение.
Точно так же, с похолоданием климата в конце палеогена 30 миллионов лет спустя, млекопитающие, включая тюленей, медведей и наших собственных предков, воспользовались пустыми нишами для подпитки и наращивания массы тела и размера мозга.
«Большим сюрпризом стало то, что большая часть различий в относительном размере мозга млекопитающих, живущих сегодня, может быть объяснена изменениями, которые претерпели их предковые линии после этих катастрофических событий», – отмечают исследователи в интервью изданию Sciencealert.
Все это, однако, не означает, что обобщения о большем мозге и увеличенных когнитивных способностях являются полной чушью. Когда дело доходит до интеллекта других животных, размер – это только один элемент, который имеет значение.
Хотите всегда быть в курсе новостей о последних научных открытиях в области биологии, медицины и высоких технологий? Подписывайтесь на наш канал в Telegram чтобы не пропустить ничего интересного!
Размер мозга и интеллект
Профессор Анджали Госвами, научный руководитель Лондонского музея естественной истории, отмечает, что результаты нового исследования иллюстрируют опасность наших собственных предубеждений в интерпретации мира природы.
Он приводит в пример дельфинов, у которых развился относительно большой мозг не за счет увеличения размера мозга, а скорее за счет уменьшения как размера мозга, так и размера тела. Сложность этих паттернов заставила исследователей полностью изменить представление о том, что движет эволюцией размера мозга.
«Наше исследование показывает, что существует множество различных способов, с помощью которых у того или иного вида развивается большой мозг», – пишут авторы исследования.
Еще один удивительный вывод новой работы заключается в том, что большинство изменений в размере мозга, как оказалось, произошло после двух катастрофических событий в истории Земли.
После массового вымирания в конце мелового периода 66 миллионов лет назад исследователи заметили резкое изменение относительного размера мозга и тела в таких линиях, как грызуны, летучие мыши и плотоядные, поскольку эти животные заполнили пустые ниши, оставленные вымершими динозаврами.
Разница между размером мозга человека и других животных колоссальная.
Примерно 30 миллионов лет спустя охлаждение климата в позднем палеогене привело к более глубоким изменениям, когда тюлени, медведи, киты и приматы претерпели эволюционные изменения в своем мозге и размерах тела. Слоны и человекообразные обезьяны развили свои экстремальные пропорции после этого события изменения климата.
Как выглядел мозг динозавров? Создана самая полная реконструкция
Помимо демонстрации того, что размер мозга по отношению к размеру тела не следовал стабильной эволюционной траектории, исследование также показывает, что относительно большой мозг, долгое время считавшийся показателем интеллекта животных, может быть результатом постепенного уменьшения размера тела в соответствии с новой средой обитания, климатом или способом передвижения. Другими словами, относительный размер мозга может вообще не иметь никакого отношения к интеллекту.
«Наша работа подчеркивает, что изменение размера тела является ключевым фактором изменения относительного размера мозга, и открывает новые возможности для размышлений о сложных способах эволюции мозга», – пишут авторы научной работы.
Искусственный интеллект Microsoft превзошел людей в понимании человеческой речи
15.01.2021, Пт, 16:29, Мск , Эльяс Касми
Модель ИИ Microsoft DeBERTa установила рекорд в тесте SuperGLUE, определяющем уровень понимания естественного языка. Она набрала 90,3 балла, а человек – 89,8 балла. Microsoft добилась таких результатов менее чем за два года, и в ее планы входит дальнейшее совершенствование своего ИИ.
Искусственный интеллект (ИИ) DeBERTa корпорации Microsoft превзошел возможности человека бенчмарке SuperGLUE – тесте на понимание естественного языка. Как сообщили CNews представители Microsoft, он набрал 90,3 балла, тогда как показатели человека находятся на уровне 89,8 балла. Другими словами, отрыв небольшой, но все же он есть.
DeBERTa (Decoding-enhanced BERT with disentangled attention) – это алгоритм понимания естественного языка (Natural Language Understanding, NLU), созданный Microsoft.
Тест SuperGLUE состоит из восьми задач, связанных с пониманием структуры текста, а также его контекста и причинно-следственных связей в нем.
При его прохождении DeBERTa (Decoding-enhanced BERT with disentangled attention), помимо прочего, приходилось давать ответы на вопросы по «прочитанному» им абзацу, а также уточнять, правильно ли использовалось то или иное слово, для которого в языке предусмотрено несколько значений, в конкретном контексте.
ИИ Microsoft продемонстрировал чудеса «мышления»
Например, ИИ прочел фразу «ребенок стал невосприимчивым к болезни» (в оригинале – the child became immune to the disease (англ.)).
По ней был задан вопрос «в чем причина этого?» (what’s the cause for this?), и DeBERTa предоставили два варианта ответа на него – «он избежал контакта с болезнью» (he avoided exposure to the disease) и «он получил вакцину от болезни» (he received the vaccine for the disease).
Хотя человеку легко выбрать правильный ответ, для модели ИИ это сложно. Чтобы получить правильный ответ, модель должна понимать причинно-следственную связь между предпосылкой и двумя (или несколькими) правдоподобными вариантами ответа.
Эволюция искусственного интеллекта Microsoft
Сам по себе тест SuperGLUE был разработан группой специалистов в 2019 г., и на момент его релиза самый умный искусственный интеллект отставал от показателей человека почти на 20 баллов. Это означает, что Microsoft потребовалось менее двух лет, чтобы ее DeBERTa не только догнал, но и перегнал людей в понимании естественного языка.
В компании сообщили CNews, что для этого ее специалистам пришлось глубоко модифицировать всю архитектуру ИИ-модели, и теперь в ее составе есть 48 слоев и 1,5 млрд различных параметров. Корпорация собирается сделать саму модель и ее исходный код публичным – вся необходимая информация будет размещена на ресурсе GitHub, которым Microsoft владеет с июня 2018 г.
Актуальная архитектура DeBERTa
Помимо полутора миллиардов параметров, у DeBERTa есть важное отличие от других ИИ-моделей, тоже сыгравшее свою роль в получении 90,3 балла в SuperGLUE. Этот ИИ по умолчанию учитывает не только значения слов, но и их позиции и роли в предложении.
Для примера, в предложении «новый магазин открылся рядом с торговым центром» (a new store opened beside the new mall» он вполне в состоянии понять, что близкие по контекстному значению слово «магазин» (store) и словосочетание «торговый центр» (mall) играют разные синтаксические роли (подлежащим здесь является именно «магазин»).
Также специалисты Microsoft научили свое детище определять зависимость слов друг от друга. К примеру, DeBERTa понимает, что зависимость между словами «deep» и «learning» гораздо сильнее, когда они стоят рядом (термин «глубокое обучение»), чем когда они встречаются в разных предложениях.
До восстания машин еще далеко
Тот факт, что DeBERTa сумел превзойти человека в бенчмарке SuperGLUE, вовсе не означает, что искусственный интеллект во всех смыслах достиг уровня людей в понимании естественного языка.
В Microsoft уточнили, что человек, в отличие от машин, для решения новых поставленных перед ним задач хорошо умеет применять свои знания, полученные им в течение своей жизни при выполнении тех или иных требований и поручений. Данное свойство людей называется «композиционным обобщением».
«Поэтому, несмотря на многообещающие результаты DeBERTa в тесте, необходимо продолжить исследования, для того чтобы развить у модели этот навык», – рассказали CNews представители Microsoft.
Как перевести четверть клиентов на самообслуживание? Опыт банка «Открытие»
ИТ в банках
У корпорации есть план по использованию имеющихся у DeBERTa возможностей. Она собирается интегрировать эту ИИ-модель в следующую версию тьюринговой модели Microsoft Turing (Turing NLRv4).
Microsoft применяет тьюринговые модели в целом спектре своих продуктов, среди которых поисковик бинг Bing, пакет офисных программ и Office облачный сервис Azure Cognitive Services. В них они используются, помимо прочего, чтобы совершенствовать взаимодействие с чат-ботами, предоставление рекомендаций и ответов на вопросы, поиск, автоматизацию поддержки клиентов, создание контента и т. д.
Не Microsoft единой
Основатель ABBYY Давид Ян — о «злом» искусственном интеллекте и рецепте мирового лидерства
; Ксения Суворова Главный редактор Ксения Суворова Главный редактор
Говорим «технологические тренды» — подразумеваем «искусственный интеллект», «машинное обучение» и «большие данные». Давид Ян — человек, который 20 лет назад сделал состояние на том, что научил машину распознавать и переводить тексты. А потом создал еще с десяток стартапов, которые использовали возможности больших данных и нейросетей в самых разных областях — от маркетинга и управления персоналом до ресторанного бизнеса. Впрочем, сам Ян говорит, что конечная цель всех его проектов — помочь людям лучше узнать друг друга. И утверждает: удовлетворение тяги людей к общению и поиск решений на стыке разных дисциплин — и есть рецепт гениальной идеи. В разговоре с «Хайтеком» Ян рассказал, сколько такая гениальная идея стоит (нисколько), как отличить тренд от хайпа (никак) и почему надо научиться проигрывать, чтобы стать мировым технологическим лидером.
Как стать мировым лидером: открыться миру и позволить себе ошибаться
В России огромное количество умных людей, высококлассных инженеров — это уникальное явление.
Несмотря на все постсоветские турбуленции, несмотря на то что люди разъезжаются по всему миру, Россия остается этакой кузницей — уж не знаю, благодаря сильному образованию или чему-то еще.
В США, в Кремниевой долине очень высоко оценивают интеллектуальные способности российских инженеров.
Наличие классных инженеров, наложенное на усилия последних лет по созданию экосистемы технопарков — Сколкова, технопарков в Татарстане, Новосибирске и др., — постепенно начинает давать плоды. Кремниевая долина тоже развивалась не сразу — она началась со Стэнфордского индустриального парка. Большим компаниям — Hewlett-Packard, Intel — уже больше 70-ти лет.
России, мне кажется, важно одно: интегрироваться в мировую экосистему технологического предпринимательства, бизнес-экосистему. Долгое отключение России от мировых каналов, конференций, бизнеса, инвестиционных средств действительно со временем может сказываться негативно — в этом я абсолютно уверен.
Не принято сейчас разрабатывать «все свое», просто не принято. Принято брать лучшее, что есть в мире, и дорабатывать.
Брать технологии open source или по лицензии, создавать еще более сильные технологии и, опять же, открывать к ним доступ или лицензировать.
Вот таким образом можно двигаться семимильными шагами, постоянно ускоряя развитие. А придумывать все «свое» — неэффективно и некомильфо.
Интеграция — фактор скорости развития: важно, чтобы российские инженеры публиковались и читали на английском, а лучше еще и на китайском.
Есть такая полушутка: почему в области ИИ Китай развивается быстрее, чем США? Потому что китайские data scientists читают статьи, вышедшие на английском и на китайском, а американские — только на английском.
Это действительно так: надо максимально читать, публиковать, питчить свои стартапы в международных акселераторах, потому что из них компании выходят с совершенно другим уровнем зрелости.
И наоборот — создать условия, при которых иностранные бизнесмены, инженеры и ученые захотят и будут приезжать в Россию.
Так, как это было 100 или 200 лет назад, когда иностранцы, работавшие в России, способствовали ее бурному развитию в науке и других областях. Обмен информацией и талантами — это ключ, это успех.
Лидерство появляется там, где есть большая концентрация талантов и открытый обмен информацией.
Российским стартапам нельзя думать только о российском рынке, потому что это всего 1-2% от мирового ВВП. Невозможно сделать серьезные прорывы, сидя только в песочнице размером с 2% мира! Почему Израиль стал мировой столицей предпринимательства и инноваций? Потому что каждый стартап там сразу думает о глобальном рынке. Вот так же нужно думать российским стартапам.
Другая особенность инновационной экосистемы — толерантность к ошибкам.
Когда ты занимаешься исследованиями, у тебя на один успех девять провалов и вопрос не в том, чтобы их избежать, а в том, чтобы эти девять провалов прошли быстро и с минимальными потерями для инвестора и команды.
Люди, которые много раз провалились — если понятны причины провалов и сделаны выводы, — считаются более опытными. В России к провалам другое отношение — здесь принцип fail fast («проваливайся быстрее») даже на язык не ложится.
Плата за комфорт: утечки личных данных и «восстание» машин
Я/Мы роботы: поработят ли нас технологии и искусственный интеллект
«Лос-Анджелес, ноябрь 2019».
Если с датой прибытия в 2015 год Марти Макфлая из «Назад в будущее» по какой-то причине случилось много накладок и фальстартов, то фэндом «Бегущего по лезвию» оказался более дисциплинированным: в начале ноября 2019-го как по команде ленты соцсетей погрузились в ностальгию по теперь уже ретровзгляду на наше настоящее, каким оно могло бы быть. Билборды «Атари» и неуклюжие интерфейсы, дождливая Калифорния, возвращение причесок и платьев из сороковых — ну и, конечно, андроиды, почти неотличимые от людей. Несмотря на многие упущения в предсказании будущего, «Бегущий по лезвию» очень верно отразил тот постоянно нарастающий за последние лет сорок дискомфорт, что характеризует отношения человека и вычислительных машин (что во многом и определяет неубывающую актуальность фильма). Откуда мы на самом деле знаем, что мы умнее компьютера? Как жить, когда тебя целиком заменяет технология? Что если нас всех можно свести к алгоритмам?
Вопросы, еще не так давно лежавшие в умозрительной плоскости, становятся максимально приземленными: недавно стало известно, что компания Тимура Бекмамбетова Screenlife Technologies находится в активной фазе разработки русскоязычного синтезатора голоса Vera Voice (подобные технологии, позволяющие нейросети «говорить» голосом знаменитостей на английском, уже существуют и используются).
Без работы рискуют остаться не только актеры: нейросети уже умеют писать простые тексты, генерировать узоры и мелодии, вести вполне осмысленные диалоги, коммуницировать с другими нейросетями.
В ближайшие годы многим из нас придется всерьез задумываться над сменой профессии и над тем, насколько большую часть своей жизни мы готовы отдать на откуп искусственному интеллекту.
К счастью, к осмыслению этих вопросов нас очень хорошо подготовила популярная наука, популярная философия и в целом поп-культура XIX, XX и XXI веков: страх перед машиной-творцом — это, кажется, естественное состояние человека и многие технологические достижения в равной степени подпитывали его и помогали его преодолеть.
1811
Растущая механизация производства тканей и текстильных изделий приводит к падению дохода английских ткачей и вязальщиков (на их невзгоды накладывается общее падение благосостояния в стране в связи с наполеоновскими войнами).
В Ноттингемшире, где сосредоточено много подобных производств, заговорщики по ночам встречаются на торфяниках и планируют разрушительные атаки на станки; затем эта практика распространяется по всей Англии. Своим духовным предводителем они считают некого Неда Ладда — героя, впоследствии оказавшегося мифическим, но давшего движению луддитов название.
В действиях движения слились воедино недовольство экономическим положением и падением уровня качества товаров, страх перед неизбежным наступлением будущего и кризис экзистенции — все то, что характеризует и нынешний страх перед искусственным интеллектом.
Слово «неолуддит» до сих пор используется как страшное ругательство, сообщающее о том, что собеседник недалек и необразован, — при этом о неиллюзорных классовых причинах восстания предпочитают не вспоминать.
1837
Чарльз Бэббидж описывает аналитическую машину — первый компьютер, обладающий полнотой по Тьюрингу (то есть подобный всем современным компьютерам).
Бэббидж в итоге не смог раздобыть достаточно денег, чтобы соорудить свой механизм, так что он не построен по исходным схемам и по сей день.
Это не помешало Аде Лавлейс в 1843 году придумать первую современную программу, которая могла бы работать на таком компьютере, и таким образом стать первой программисткой в истории.
1902
Рассматривая артефакты, обнаруженные на затонувшем рядом с островом Антикитера древнеримском корабле, археолог Валериос Стаис обращает внимание на один из «камней»: внутри него находятся шестеренки.
Стаис предполагает, что механизм предназначался для предсказания затмений и положения небесных тел, но ему никто не верит: остальные артефакты на корабле датированы примерно I веком до нашей эры, и до 1902 года никаких астрономических механизмов той эпохи никто не находил.
О механизме забывают до середины пятидесятых годов XX века, когда несколько ученых подтверждают его природу и датировку. С тех пор так называемый антикитерский механизм, сравнимый по сложности с устройствами XIV века нашей эры, стал для кого-то символом неверия человечества в собственные способности, а для кого-то — знаком о визите инопланетян.
Как бы то ни было, механизм показывает, что математическое и механическое мышление очень высокого уровня было доступно нашим далеким предкам — и они передавали часть его машинам. Легенды об оживающих статуях из древнегреческих и древнеегипетских мифов обретают плоть и подпитывают конспирологию искусственного интеллекта.
1920
Выходит пьеса чешского драматурга Карела Чапека R.U.R. (Rossumovi Univerzální Roboti), она же «Универсальные роботы Россума».
Опираясь на античные мифы об автоматонах, на легенду о Прометее, на иудейскую концепцию големов, на теорию Сэмюэла Батлера об эволюции сознания у машин и, разумеется, на главного литературного предшественника всех рассказов о разумных механизмах — роман Мэри Шелли «Франкенштейн», — Чапек почти единолично придумывает современную художественную концепцию «робота», искусственного полуразумного слуги (справедливости ради, у Чапека это организмы, а не механизмы). Весьма характерно, что первая же история о роботах заканчивается полным уничтожением человечества. В 1923 году выйдет первая постановка на английском, а слово с простым славянским корнем закрепится в большинстве языков мира. Кроме того, блестящие металлические костюмы из фильма Фрица Ланга «Метрополис» 1927 года, созданного с явной оглядкой на R.U.R., на долгие годы определят внешний облик большинства роботов на экране.
1942
Химик, популяризатор науки и великий писатель Айзек Азимов в рассказе «Хоровод» формулирует базовые принципы не только существования искусственного интеллекта, но и написания сюжетов о нем. Они известны как «Три закона робототехники»:
- Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред.
- Робот должен повиноваться всем приказам, которые дает человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
- Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.
Деконструкция законов Азимова в научной фантастике активно началась уже в 1950-е, когда «робот-убийца» стал тропом в фильмах категории Б, постепенно перекочевавшим и в высокобюджетные кинокартины.
Современные истории об искусственном интеллекте либо полностью игнорируют эти законы, либо модифицируют их так, чтобы сделать возможным существование воинственных роботов.
Несмотря на это, специалисты в области искусственного интеллекта и сейчас продолжают ориентироваться на технооптимистические и просциентистские позиции Азимова.
Как утверждает физик Эдвин Томпсон Джейнс в своей книге «Теория вероятности: Логика науки», в 1948 году математика и физика Джона фон Неймана на лекции спросили, может ли машина думать, на что он в запале ответил следующее: «Вы утверждаете, что есть вещи, которые машина не может выполнить.
Если вы мне укажете точно, что же именно не способна сделать машина, я всегда смогу построить такую машину, которая сможет сделать именно вот это!» Будто комментируя это высказывание, два года спустя математик, программист и герой войны Алан Тьюринг в статье предлагает одну из ключевых концепций искусственного интеллекта — тест Тьюринга, активно использующийся и по сей день (пусть и в модифицированном виде, пусть и его критика звучит все активнее). Отличить компьютер от человека Тьюринг предлагал следующим образом: задать вопрос (исключительно письменно) и получить ответ как от человека, так и от машины. Если человек, получающий ответы на свои вопросы, не может понять, где ему отвечает человек, а где — искусственный разум, то тест пройден. Сцены, основанные на прохождении или непрохождении теста Тьюринга, есть в нескольких дюжинах научно-фантастических фильмов, романов и сериалов. Выдуманный «тест Войта-Кампфа» из «Бегущего по лезвию» фактически является вариацией теста Тьюринга, где следователь задает ключевые вопросы и следит за реакцией подозреваемого. Как и во многих других случаях, отрицательный результат теста приводит к агрессии и жестокости.
1956
В Дартмутском колледже проходит конференция, где впервые официально использовано словосочетание «искусственный интеллект».
Почти все ее участники на долгие годы вперед определяют не только моду в кибернетике, развившейся из сомнительной новомодной области сороковых в полноценную науку, но и конкретно в разработке искусственного разума.
Так, Марвин Минский консультировал Артура Кларка при написании сценария фильма «2001» — одного из самых известных сюжетов об искусственном интеллекте, намеренном убивать людей (в честь Марвина назван и один из персонажей, Виктор Каминский).
1957
Психолог Фрэнк Розенблатт, уверенный в том, что машины можно обучать так же, как животных, тестирует самообучающийся электронный механизм Перцептрон — первый прототип нейросети.
В шестидесятые и семидесятые пионерские труды Розенблатта были отчасти высмеяны и забыты — в том числе вышеупомянутым Минским.
Некоторые эксперты считают, что игнорирование нейросетей как концепции затруднило развитие искусственного интеллекта на годы, а то и десятилетия: в поп-культуру нейросети полноценно вошли только в 2010-е, когда на рынки вышли самообучающиеся графические приложения и чат-боты.
1965
Европа поставит распознавание лиц на место
Сегодня, 21 апреля, Еврокомиссия представила первый в мире комплексный законопроект, посвященный ужесточению и детальному регулированию систем искусственного интеллекта (ИИ), в том числе с распознаванием лиц.
ЕС разделит технологии ИИ по степени риска для безопасности, жизни и прав граждан и будет строго ограничивать или запрещать применение технологий, если они представляют высокий риск. Инициативы ЕС представлены на фоне их массового применения властями таких стран, как Китай и др.
, и бурной общественной дискуссии о корректности и законности их применения в таких странах, как США.
Представленные сегодня инициативы ЕС вынесены на рассмотрение общественности, Европарламента и стран—членов ЕС. В случае одобрения они получат прямое действие на всей территории ЕС. Ключевым элементом законопроекта является разделение систем ИИ по степени риска для безопасности, жизни и прав граждан.
К системам ИИ с неприемлемо высоким риском предлагается относить системы, которые «манипулируют человеческим поведением, влияют на свободу выбора человека,— например, игрушки или устройства, которые поощряют опасное поведение несовершеннолетних; либо системы, которые позволяют правительствам осуществлять так называемый социальный скоринг,— моделирование поведения человека или его классификацию при помощи ИИ-анализа его поведения в соцсетях, используя такие данные, как вес, пол, возраст, внешность, место рождения и/или проживания, место работы, должность и т. п.».
Использование систем ИИ с неприемлемо высоким риском будет запрещено в ЕС.
К системам ИИ с высоким риском ЕС предлагает применять строгое ограничение и жесткий контроль до того, как такие системы будут выведены на рынок.
К ним ЕС предлагает отнести все системы с удаленной биометрической идентификацией; автоматическую оценку кредитоспособности гражданина, которая может влиять на отказ в предоставлении кредита; используемые правоохранительными органами системы ИИ, которые могут ущемлять базовые права человека, например, оценка достоверности доказательств.
Говоря о системах дистанционной биометрической идентификации, законопроект уточняет, что применение таких систем должно быть строго ограничено узкими задачами — например, «поиском пропавших детей, предотвращением неминуемой террористической угрозы, поиском и идентификацией находящегося в розыске преступника или террориста» и т. д. При этом использование таких систем все равно должно получить специальное одобрение со стороны судебного или другого независимого органа и должно быть ограничено по времени и месту.
Системами ИИ с ограниченным риском ЕС предлагает считать системы со специфическими прозрачными задачами, например чатботы.
Регулирование таких систем должно осуществляться так, чтобы «пользователь получал достаточную информацию и понимал, что он общается с машиной, получая своевременный выбор в том, чтобы продолжать такое общение или прекратить его».
К системам с минимальным уровнем риска предлагается отнести игровые приложения с применением ИИ или спам-фильтры. В законопроекте нет предложений о том, как регулировать такие системы.
Законопроект ЕС по комплексной оценке рисков и строгому регулированию систем ИИ, в том числе с дистанционной биометрической идентификацией, представлен на фоне острых споров о законности применения таких технологий в ряде стран мира и растущей тревоги правозащитников в связи с этим. Особенно распространены системы распознавания лиц в Китае, который и в целом известен активным использованием технологий для слежки и надзора за гражданами.
По данным IHS Markit, уже сейчас в Китае установлено 176 млн камер, а к 2022 году их число вырастет до 2,76 млрд, в 2018 году почти половина всего бизнеса по распознаванию лиц приходилась на Китай.
Китайские компании активно продают такие системы за рубеж, в том числе в Зимбабве, Уганду, Казахстан, Австралию, Мьянму, что некоторые правозащитники назвали «экспортом авторитаризма».
Жители Китая обеспокоены таким положением вещей.
Как следует из опубликованного в декабре опроса организации Nandu Personal Information Protection Research Center, 76% китайцев предпочли бы традиционные способы идентификации личности.
80% опрошенных опасаются утечки данных, 57% — возможности отслеживания их перемещений, 84% опрошенных хотели бы иметь возможность посмотреть собранные данные и при необходимости потребовать их удаления.
Правозащитники уже не первый год говорят о возможности использования ее для тотальной слежки и преследования несогласных.
Директор британской правозащитной организации Big Brother Watch Силки Карло назвала системы распознавания, вне зависимости от того, насколько совершенными они будут, «идеальным инструментом угнетения» и добавила, что «в крайнем случае, вы можете оказаться в обществе, где у вас нет шанса на анонимность».
С подозрением к таким технологиям в последнее время стали относиться и власти некоторых стран и регионов. Запрет на их использование уже ввели несколько штатов США — первой была Калифорния, в сентябре прошлого года установившая трехгодичный мораторий на применение таких систем полицией и другими госслужбами.
Один из авторов законопроекта — вице-президент управления ЕС по вопросам цифровой политики Маргрет Вестагер отметила, что «эти стандарты использования ИИ могут подготовить почву для этичного использования этих технологий во всем мире… Новые правила будут работать там, где это нужно, когда на кону стоят безопасность и фундаментальные права граждан ЕС». Ранее она уже подчеркивала, что «искусственный интеллект должен служить людям, поэтому его применение должно всегда соответствовать правам человека».
Евгений Хвостик
Давид Ян о системе, которая предскажет ваше увольнение — Журнал «Код»: программирование без снобизма
Это — короткая версия подкаста «Запуск завтра», в котором наш товарищ Самат Галимов говорит с Давидом Яном. Если есть время — послушайте полную версию:
О давиде
- Создатель электронного словаря Lingvo и системы распознавания документов FineReader. Это два первых продукта компании ABBYY. Сегодня у ABBYY есть офисы на многих континентах и оборот в миллионы долларов.
- Создал компанию iiko. Если вы сейчас пойдёте в ресторан, то с большой вероятностью официант забьёт ваш заказ именно в систему iiko.
- Сейчас работает над системой Yva, которая обещает предсказать поведение людей: например, когда они выгорят или уволятся.
- Кандидат физико-математических наук.
- Занимается искусственным интеллектом
- Основал 12 компаний.
Об ИИ, который предсказывает поведение людей в компании
Мы несколько лет назад решили применить технологии искусственного интеллекта к самому сокровенному, наверное, что есть в бизнесе, — это к информации о том, как люди сотрудничают.
Мы были убеждены, что в корпоративных коммуникациях лежит мудрость организации: кто сильный управленец, кто сильный продавец.
Или, наоборот, кто отстраняется от работы или проявляет себя как токсичный менеджер.
Мы подумали, что если кто-то научится расшифровывать эту информацию, то он обеспечит бизнесам всего мира такой магический кристалл и своего рода МРТ-сканер.
Например, система показывает вовлечённость сотрудников в работу: как она растёт и падает. Она показывает продолжительность рабочего дня, как быстро люди отвечают на письма, есть ли у них проблемы, есть ли конфликты. Можно увидеть признаки выгорания сотрудников.
Как предсказать увольнение
Можно даже предсказать увольнение — иногда до того, как сам сотрудник принял решение уволиться. У нас есть ситуации, когда система предсказывала увольнение за 11 месяцев. Система делит этот период на три фазы: фаза фрустрации, фаза раннего выгорания и фаза позднего выгорания.
Это нужно, чтобы удерживать сотрудников. Каждая организация вкладывает огромные деньги, силы, любовь в каждого сотрудника. И очень обидно, если из-за чего-то человек решает уйти. Хочется находить ситуации каких-то недопониманий на раннем этапе, чтобы их исправить и чтобы хорошие сотрудники оставались.
Мы создали такую нейросеть и так её обучили, что она научилась находить изменения в точках корпоративного сотрудничества человека в период за несколько месяцев до того, как он увольняется.
Оказывается, в такие моменты мы меняем своё поведение. Это связано с тем, как быстро мы отвечаем на письма, кому и когда мы пишем, какое количество новых писем и тредов мы начинаем; хвалим мы своих коллег или не хвалим; хвалят ли нас; есть ли похвала вверх или вниз по иерархии, за пределы компании, внутри компании.
Получается такой граф коммуникаций: это десятки тысяч точек данных, которые каждый сотрудник порождает ежегодно. И если смотреть на отдельно взятую метрику, то ничего не меняется. А вот всё вместе — оказывается, там лежит эта информация, мы немножко меняемся в этот период.
И вот мы научили нейросеть замечать эти изменения и с определённой вероятностью предсказывать увольнение.
Был случай в самой компании Yva, где мы разрабатываем эту технологию. У нас было 15 сотрудников, и мы думали, что мы всё про всех знаем. И вот мы первый раз показываем модель выгорания самим себе на стендапе. Данные по нам самим: все сотрудники показываются на экране: кто выгорает, кто — нет.
И тут два инженера показываются в зоне выгорания. То есть у них вероятность увольнения достаточно высокая. Мы переглядываемся: один как-то промолчал, а другой говорит: «Ребят, я же говорил, что это не работает. Ну посмотрите, ерунда какая-то». Допустим, его Олег зовут. Он был одним из наших ключевых сотрудников.
Я говорю: «Олег, ты скажи, если что не так». Он говорит: «Да нет, нет, нет, всё нормально, я не собираюсь увольняться». Дело происходит в апреле.
- Через четыре месяца он увольняется. И когда он увольняется, происходит разговор:
- — Олег, а почему ты говорил, что ты не собираешься увольняться?
- — А я не собирался.
— Но ты год назад подал заявление на переезд на постоянное место жительства в Европу. То есть ты же знал, что ты уезжаешь.
— Ну, понимаешь, мне в апреле тогда ещё визу не дали, вот я как бы и говорил, что не собираюсь увольняться.
А система на самом деле увидела примерно с того момента, когда он подал визу, его изменение. Так что бывает так, что ты работаешь с человеком вот так рядом и совершенно не понимаешь этого.
Этический вопрос предсказаний
Очень важно, что мы доставляем эту информацию в первую очередь самому сотруднику в его личный дашборд. И подобный анализ происходит с согласия сотрудника. Это совершенно принципиально. С одной стороны, мы создаём эту информацию для сотрудника, с другой — мы спрашиваем его разрешение.
Мы считаем, что этический водораздел находится в следующем: кому принадлежат данные, кто инициирует анализ и для чего он это делает.
Если данные принадлежат самому сотруднику и если он является хозяином и инициатором этого анализа, это его решение. Каждый сотрудник может принять решение, допустим, что он не хочет, чтобы создавался личный кабинет о том, как он работает.
Более того: система имеет несколько уровней приватности.
- Первый уровень — ты не разрешаешь системе анализировать своё поведение вообще.
- Следующий уровень — ты разрешаешь анализировать, но только с целью того, чтобы правильно задавать вопросы про правильных людей. Но система не имеет права считать выгорание, ширину рабочего дня и всё прочее.
- Самая глубокая степень приватности — когда ты разрешаешь системе смотреть содержание переписки для цели вытаскивания таких семантических сигналов, как похвала, позитив, негатив, когда мы ставим задачи друг другу.
Такие семантические конструкции система вытаскивает из содержания, ставит надписи на конверте «здесь есть задача», «здесь есть похвала», «здесь есть позитив», «здесь есть негатив». И дальше она не хранит в себе само содержание переписки.
Как это ни странно, большинство людей разрешают системе самый глубокий уровень приватности. У нас практически нет случаев, когда сами сотрудники отказывались от анализа.
Когда сотрудники участвуют в опросах и отвечают на вопросы про других людей, в конце у них есть кнопка: «А хочешь посмотреть информацию о себе, как твои коллеги по работе рекомендуют тебе улучшиться?». Это оказывается настолько важно, что люди подписываются на систему и дают согласие и получают этот личный кабинет.
О пивоте
Когда мы начинали делать Yva, это была система умного поиска по документам в почте. Потом произошёл классический пивот в стиле стартапов Кремниевой долины.
Мы начинали с того, что хотели решить проблему, когда ты знаешь, что у тебя есть этот документ, но ты не можешь его найти. И эта проблема никуда не девалась, кажется, что она до сих пор есть.
И когда-нибудь всё-таки, наверное, кто-нибудь её решит.
Но чтобы вообще решить проблему умного семантического поиска, надо действительно было понять и сантименты, и задачи, и многое другое.
Пока мы решали эту задачу, у нас появилось 160 000 пользователей, и как-то вдруг наши пользователи начали говорить: «Слушай, Давид, а что, ваша система умеет понимать позитивные и негативные письма? Она умеет понимать, что в письме была поставлена задача? А она может напоминать, что задача была поставлена кем-то, а я не ответил? Она может мне помочь просто найти те письма, где меня о чём-то просили, а я так и не ответил и забыл про это?» На всё это у нас был положительный ответ.
Так появилась система Yva Task Assistant. Это был промежуточный пивот между Findo и текущей Yva. И мы это сделали. У нас появилось много пользователей, которые сказали: «О, круто, то есть теперь она может подсказывать неисполненные задачи!»
И вот когда мы уже отрабатывали эту продуктовую идею, мы вдруг увидели большой пласт: мы вдруг поняли, что можно сделать систему, которая в целом поможет сотруднику стать эффективнее: развить лидерские качества, вовлечённость, удовлетворённость, управление командами и т. д.
И эта задача, оказывается, огромная, это многомиллиардный бизнес. Он называется Employee Experience Platforms. Их только на пальцах одной руки можно насчитать, наверное, — это миллиардные компании.
Но мы поняли и другое — что все эти компании очень old-fashioned, они в основном используют активную аналитику и опросы. А мир ушёл вперёд.
Нельзя ли эти опросы снабдить объективной аналитикой того, как на самом деле люди работают? Не спрашивать о том, как вы работаете, а на самом деле смотреть, чем отличается сильный продавец от слабого продавца, сильный управленец от слабого? Вот этот орешек мы хотели вскрыть.
Предсказание успешности человека
Есть такая тема: понять, какого типа человек. Он из того типа, который, скорее всего, станет через два-три года самым сильным и успешным, продвинется по службе и станет начальником. Или он через шесть месяцев покинет работу? Сейчас Yva не умеет этого делать.
Yva нужен хотя бы за восемь месяцев исторический цифровой след сотрудника, чтобы начать принимать какие-то решения. Это не значит, что после установки Yva первые восемь месяцев она не работает.
Она смотрит исторические данные: она тебе покажет сразу всю историю твоей компании, все твои взлёты и падения. Но если сам сотрудник работает меньше восьми месяцев у тебя в компании, то у тебя будет ограниченная информация.
И мы сейчас над этим работаем.
Ошибки системы
Как и у любой системы, построенной на статистике и на глубоком обучении, у неё есть понятия false positive, false negative, ошибки первого рода, ошибки второго рода. И в этом смысле информацию, которую показывает любая подобная система, необходимо рассматривать только как один из сигналов.
Что касается семантических сигналов: как поставлена задача, письмо, требующее ответа, похвала. Там точность на 100 языках достаточно высокая: более 90, 92% и выше.
Что касается оценок выгорания и предсказаний увольнения, на допандемических данных и на модели «из коробки» точность была от 58 до 86%.
Но, например, мы хорошо понимаем, что в период пандемии изменилось всё.
То есть даже если мы были чем-то недовольны и уже думали о поиске новой работы до 31 марта, то начиная с апреля огромное количество людей изменили своё решение о потенциальном увольнении.
Что ещё
В полной версии подкаста — о работе Давида с университетской скамьи, компаниях ABBYY и других предприятиях, а также об эмоциональном доме и роботе-собаке с эмоциональным интеллектом. Страшные вещи рассказывает. Слушайте, если хотите оказаться в будущем.