Что расскажет об искусственном интеллекте Давид Ян на форуме hi-tech nation — видеообращение

Новые исследования показали, что, вопреки распространенному мнению, относительный размер мозга у млекопитающих не только связан с интеллектом, но и обусловлен различными эволюционными факторами, влияющими на размер тела, включая адаптацию, вызванную массовым вымиранием и изменениями климата.

В международном исследовании – крупнейшем в своем роде – участвовала команда из 22 ученых, которые исследовали 1400 живых и вымерших видов млекопитающих. Эта новаторская работа собрала воедино уникальную хронологию эволюции мозга и размеров тела за последние 150 миллионов лет, показав, как “большемозговые” виды достигли своих экстремальных пропорций различными способами.

Например, человекообразные обезьяны имеют широкий диапазон размеров тела, но продемонстрировали общую тенденцию к увеличению как мозга, так и размера тела. Для сравнения, предковые гоминины, которые представляют человеческую линию, показали относительное уменьшение размера тела и увеличение размера мозга по сравнению с человекообразными обезьянами.

Полученные результаты также показали, что относительный размер мозга может вообще не иметь никакого отношения к интеллекту.

Что расскажет об искусственном интеллекте Давид Ян на форуме hi-tech nation — видеообращение

Масштабное исследование более 1400 видов может изменить наше понимание интеллекта

Имеет ли размер значение?

Итак, ученые наконец опровергли давнюю догму о том, что относительный размер мозга можно отождествить с интеллектом.

По мнению авторов работы, опубликованной в журнале Science Advances, иногда относительно большой мозг может быть конечным результатом постепенного уменьшения размера тела.

Это позволяет организму приспособиться к новой среде обитания или способу передвижения. Другими словами, вообще ничего общего с интеллектом.

Сравнение размеров мозга и тела, сохранившихся в летописи окаменелостей, позволило команде получить представление об исторических изменениях, происходящих на меняющемся экологическом фоне.

В результате удара, убившего динозавров, который положил конец меловому периоду, группа крошечных млекопитающих, таких как крысы, землеройки и летучие мыши, претерпела значительные изменения в масштабе их мозга и тела – по мере того, как они становились больше, их мозг тоже менялся.

Что расскажет об искусственном интеллекте Давид Ян на форуме hi-tech nation — видеообращение

Как выяснили авторы нового исследования, когда дело доходит до интеллекта других животных, размер – это только один элемент, который имеет значение.

Точно так же, с похолоданием климата в конце палеогена 30 миллионов лет спустя, млекопитающие, включая тюленей, медведей и наших собственных предков, воспользовались пустыми нишами для подпитки и наращивания массы тела и размера мозга.

«Большим сюрпризом стало то, что большая часть различий в относительном размере мозга млекопитающих, живущих сегодня, может быть объяснена изменениями, которые претерпели их предковые линии после этих катастрофических событий», – отмечают исследователи в интервью изданию Sciencealert.

Все это, однако, не означает, что обобщения о большем мозге и увеличенных когнитивных способностях являются полной чушью. Когда дело доходит до интеллекта других животных, размер – это только один элемент, который имеет значение.

Хотите всегда быть в курсе новостей о последних научных открытиях в области биологии, медицины и высоких технологий? Подписывайтесь на наш канал в Telegram чтобы не пропустить ничего интересного!

Размер мозга и интеллект

Профессор Анджали Госвами, научный руководитель Лондонского музея естественной истории, отмечает, что результаты нового исследования иллюстрируют опасность наших собственных предубеждений в интерпретации мира природы.

Он приводит в пример дельфинов, у которых развился относительно большой мозг не за счет увеличения размера мозга, а скорее за счет уменьшения как размера мозга, так и размера тела. Сложность этих паттернов заставила исследователей полностью изменить представление о том, что движет эволюцией размера мозга.

«Наше исследование показывает, что существует множество различных способов, с помощью которых у того или иного вида развивается большой мозг», – пишут авторы исследования.

Еще один удивительный вывод новой работы заключается в том, что большинство изменений в размере мозга, как оказалось, произошло после двух катастрофических событий в истории Земли.

После массового вымирания в конце мелового периода 66 миллионов лет назад исследователи заметили резкое изменение относительного размера мозга и тела в таких линиях, как грызуны, летучие мыши и плотоядные, поскольку эти животные заполнили пустые ниши, оставленные вымершими динозаврами.

Что расскажет об искусственном интеллекте Давид Ян на форуме hi-tech nation — видеообращение

Разница между размером мозга человека и других животных колоссальная.

Примерно 30 миллионов лет спустя охлаждение климата в позднем палеогене привело к более глубоким изменениям, когда тюлени, медведи, киты и приматы претерпели эволюционные изменения в своем мозге и размерах тела. Слоны и человекообразные обезьяны развили свои экстремальные пропорции после этого события изменения климата.

Как выглядел мозг динозавров? Создана самая полная реконструкция

Помимо демонстрации того, что размер мозга по отношению к размеру тела не следовал стабильной эволюционной траектории, исследование также показывает, что относительно большой мозг, долгое время считавшийся показателем интеллекта животных, может быть результатом постепенного уменьшения размера тела в соответствии с новой средой обитания, климатом или способом передвижения. Другими словами, относительный размер мозга может вообще не иметь никакого отношения к интеллекту.

«Наша работа подчеркивает, что изменение размера тела является ключевым фактором изменения относительного размера мозга, и открывает новые возможности для размышлений о сложных способах эволюции мозга», – пишут авторы научной работы.

Искусственный интеллект Microsoft превзошел людей в понимании человеческой речи

15.01.2021, Пт, 16:29, Мск , Эльяс Касми

Модель ИИ Microsoft DeBERTa установила рекорд в тесте SuperGLUE, определяющем уровень понимания естественного языка. Она набрала 90,3 балла, а человек – 89,8 балла. Microsoft добилась таких результатов менее чем за два года, и в ее планы входит дальнейшее совершенствование своего ИИ.

Искусственный интеллект (ИИ) DeBERTa корпорации Microsoft превзошел возможности человека бенчмарке SuperGLUE – тесте на понимание естественного языка. Как сообщили CNews представители Microsoft, он набрал 90,3 балла, тогда как показатели человека находятся на уровне 89,8 балла. Другими словами, отрыв небольшой, но все же он есть.

DeBERTa (Decoding-enhanced BERT with disentangled attention) – это алгоритм понимания естественного языка (Natural Language Understanding, NLU), созданный Microsoft.

Тест SuperGLUE состоит из восьми задач, связанных с пониманием структуры текста, а также его контекста и причинно-следственных связей в нем.

При его прохождении DeBERTa (Decoding-enhanced BERT with disentangled attention), помимо прочего, приходилось давать ответы на вопросы по «прочитанному» им абзацу, а также уточнять, правильно ли использовалось то или иное слово, для которого в языке предусмотрено несколько значений, в конкретном контексте.

Что расскажет об искусственном интеллекте Давид Ян на форуме hi-tech nation — видеообращение

ИИ Microsoft продемонстрировал чудеса «мышления»

Например, ИИ прочел фразу «ребенок стал невосприимчивым к болезни» (в оригинале – the child became immune to the disease (англ.)).

По ней был задан вопрос «в чем причина этого?» (what’s the cause for this?), и DeBERTa предоставили два варианта ответа на него – «он избежал контакта с болезнью» (he avoided exposure to the disease) и «он получил вакцину от болезни» (he received the vaccine for the disease).

Хотя человеку легко выбрать правильный ответ, для модели ИИ это сложно. Чтобы получить правильный ответ, модель должна понимать причинно-следственную связь между предпосылкой и двумя (или несколькими) правдоподобными вариантами ответа.

Эволюция искусственного интеллекта Microsoft

Сам по себе тест SuperGLUE был разработан группой специалистов в 2019 г., и на момент его релиза самый умный искусственный интеллект отставал от показателей человека почти на 20 баллов. Это означает, что Microsoft потребовалось менее двух лет, чтобы ее DeBERTa не только догнал, но и перегнал людей в понимании естественного языка.

В компании сообщили CNews, что для этого ее специалистам пришлось глубоко модифицировать всю архитектуру ИИ-модели, и теперь в ее составе есть 48 слоев и 1,5 млрд различных параметров. Корпорация собирается сделать саму модель и ее исходный код публичным – вся необходимая информация будет размещена на ресурсе GitHub, которым Microsoft владеет с июня 2018 г.

Актуальная архитектура DeBERTa

Помимо полутора миллиардов параметров, у DeBERTa есть важное отличие от других ИИ-моделей, тоже сыгравшее свою роль в получении 90,3 балла в SuperGLUE. Этот ИИ по умолчанию учитывает не только значения слов, но и их позиции и роли в предложении.

Для примера, в предложении «новый магазин открылся рядом с торговым центром» (a new store opened beside the new mall» он вполне в состоянии понять, что близкие по контекстному значению слово «магазин» (store) и словосочетание «торговый центр» (mall) играют разные синтаксические роли (подлежащим здесь является именно «магазин»).

Также специалисты Microsoft научили свое детище определять зависимость слов друг от друга. К примеру, DeBERTa понимает, что зависимость между словами «deep» и «learning» гораздо сильнее, когда они стоят рядом (термин «глубокое обучение»), чем когда они встречаются в разных предложениях.

До восстания машин еще далеко

Тот факт, что DeBERTa сумел превзойти человека в бенчмарке SuperGLUE, вовсе не означает, что искусственный интеллект во всех смыслах достиг уровня людей в понимании естественного языка.

В Microsoft уточнили, что человек, в отличие от машин, для решения новых поставленных перед ним задач хорошо умеет применять свои знания, полученные им в течение своей жизни при выполнении тех или иных требований и поручений. Данное свойство людей называется «композиционным обобщением».

Читайте также:  Как все успевать за 7 часов – советы эксперта по тайм-менеджменту

«Поэтому, несмотря на многообещающие результаты DeBERTa в тесте, необходимо продолжить исследования, для того чтобы развить у модели этот навык», – рассказали CNews представители Microsoft.

Как перевести четверть клиентов на самообслуживание? Опыт банка «Открытие»

ИТ в банках Что расскажет об искусственном интеллекте Давид Ян на форуме hi-tech nation — видеообращение

У корпорации есть план по использованию имеющихся у DeBERTa возможностей. Она собирается интегрировать эту ИИ-модель в следующую версию тьюринговой модели Microsoft Turing (Turing NLRv4).

Microsoft применяет тьюринговые модели в целом спектре своих продуктов, среди которых поисковик бинг Bing, пакет офисных программ и Office облачный сервис Azure Cognitive Services. В них они используются, помимо прочего, чтобы совершенствовать взаимодействие с чат-ботами, предоставление рекомендаций и ответов на вопросы, поиск, автоматизацию поддержки клиентов, создание контента и т. д.

Не Microsoft единой

Основатель ABBYY Давид Ян — о «злом» искусственном интеллекте и рецепте мирового лидерства

; Что расскажет об искусственном интеллекте Давид Ян на форуме hi-tech nation — видеообращение Ксения Суворова Главный редактор Ксения Суворова Главный редактор

Говорим «технологические тренды» — подразумеваем «искусственный интеллект», «машинное обучение» и «большие данные». Давид Ян — человек, который 20 лет назад сделал состояние на том, что научил машину распознавать и переводить тексты. А потом создал еще с десяток стартапов, которые использовали возможности больших данных и нейросетей в самых разных областях — от маркетинга и управления персоналом до ресторанного бизнеса. Впрочем, сам Ян говорит, что конечная цель всех его проектов — помочь людям лучше узнать друг друга. И утверждает: удовлетворение тяги людей к общению и поиск решений на стыке разных дисциплин — и есть рецепт гениальной идеи. В разговоре с «Хайтеком» Ян рассказал, сколько такая гениальная идея стоит (нисколько), как отличить тренд от хайпа (никак) и почему надо научиться проигрывать, чтобы стать мировым технологическим лидером.

Как стать мировым лидером: открыться миру и позволить себе ошибаться

В России огромное количество умных людей, высококлассных инженеров — это уникальное явление.

Несмотря на все постсоветские турбуленции, несмотря на то что люди разъезжаются по всему миру, Россия остается этакой кузницей — уж не знаю, благодаря сильному образованию или чему-то еще.

В США, в Кремниевой долине очень высоко оценивают интеллектуальные способности российских инженеров.

Наличие классных инженеров, наложенное на усилия последних лет по созданию экосистемы технопарков — Сколкова, технопарков в Татарстане, Новосибирске и др., — постепенно начинает давать плоды. Кремниевая долина тоже развивалась не сразу — она началась со Стэнфордского индустриального парка. Большим компаниям — Hewlett-Packard, Intel — уже больше 70-ти лет.

России, мне кажется, важно одно: интегрироваться в мировую экосистему технологического предпринимательства, бизнес-экосистему. Долгое отключение России от мировых каналов, конференций, бизнеса, инвестиционных средств действительно со временем может сказываться негативно — в этом я абсолютно уверен.

Не принято сейчас разрабатывать «все свое», просто не принято. Принято брать лучшее, что есть в мире, и дорабатывать.

Брать технологии open source или по лицензии, создавать еще более сильные технологии и, опять же, открывать к ним доступ или лицензировать.

Вот таким образом можно двигаться семимильными шагами, постоянно ускоряя развитие. А придумывать все «свое» — неэффективно и некомильфо.

Интеграция — фактор скорости развития: важно, чтобы российские инженеры публиковались и читали на английском, а лучше еще и на китайском.

Есть такая полушутка: почему в области ИИ Китай развивается быстрее, чем США? Потому что китайские data scientists читают статьи, вышедшие на английском и на китайском, а американские — только на английском.

Это действительно так: надо максимально читать, публиковать, питчить свои стартапы в международных акселераторах, потому что из них компании выходят с совершенно другим уровнем зрелости.

И наоборот — создать условия, при которых иностранные бизнесмены, инженеры и ученые захотят и будут приезжать в Россию.

Так, как это было 100 или 200 лет назад, когда иностранцы, работавшие в России, способствовали ее бурному развитию в науке и других областях. Обмен информацией и талантами — это ключ, это успех.

Лидерство появляется там, где есть большая концентрация талантов и открытый обмен информацией.

Российским стартапам нельзя думать только о российском рынке, потому что это всего 1-2% от мирового ВВП. Невозможно сделать серьезные прорывы, сидя только в песочнице размером с 2% мира! Почему Израиль стал мировой столицей предпринимательства и инноваций? Потому что каждый стартап там сразу думает о глобальном рынке. Вот так же нужно думать российским стартапам.

Другая особенность инновационной экосистемы — толерантность к ошибкам.

Когда ты занимаешься исследованиями, у тебя на один успех девять провалов и вопрос не в том, чтобы их избежать, а в том, чтобы эти девять провалов прошли быстро и с минимальными потерями для инвестора и команды.

Люди, которые много раз провалились — если понятны причины провалов и сделаны выводы, — считаются более опытными. В России к провалам другое отношение — здесь принцип fail fast («проваливайся быстрее») даже на язык не ложится.

Плата за комфорт: утечки личных данных и «восстание» машин

Я/Мы роботы: поработят ли нас технологии и искусственный интеллект

«Лос-Анджелес, ноябрь 2019».

Если с датой прибытия в 2015 год Марти Макфлая из «Назад в будущее» по какой-то причине случилось много накладок и фальстартов, то фэндом «Бегущего по лезвию» оказался более дисциплинированным: в начале ноября 2019-го как по команде ленты соцсетей погрузились в ностальгию по теперь уже ретровзгляду на наше настоящее, каким оно могло бы быть. Билборды «Атари» и неуклюжие интерфейсы, дождливая Калифорния, возвращение причесок и платьев из сороковых — ну и, конечно, андроиды, почти неотличимые от людей. Несмотря на многие упущения в предсказании будущего, «Бегущий по лезвию» очень верно отразил тот постоянно нарастающий за последние лет сорок дискомфорт, что характеризует отношения человека и вычислительных машин (что во многом и определяет неубывающую актуальность фильма). Откуда мы на самом деле знаем, что мы умнее компьютера? Как жить, когда тебя целиком заменяет технология? Что если нас всех можно свести к алгоритмам?

Вопросы, еще не так давно лежавшие в умозрительной плоскости, становятся максимально приземленными: недавно стало известно, что компания Тимура Бекмамбетова Screenlife Technologies находится в активной фазе разработки русскоязычного синтезатора голоса Vera Voice (подобные технологии, позволяющие нейросети «говорить» голосом знаменитостей на английском, уже существуют и используются).

Без работы рискуют остаться не только актеры: нейросети уже умеют писать простые тексты, генерировать узоры и мелодии, вести вполне осмысленные диалоги, коммуницировать с другими нейросетями.

В ближайшие годы многим из нас придется всерьез задумываться над сменой профессии и над тем, насколько большую часть своей жизни мы готовы отдать на откуп искусственному интеллекту.

К счастью, к осмыслению этих вопросов нас очень хорошо подготовила популярная наука, популярная философия и в целом поп-культура XIX, XX и XXI веков: страх перед машиной-творцом — это, кажется, естественное состояние человека и многие технологические достижения в равной степени подпитывали его и помогали его преодолеть.

1811

Растущая механизация производства тканей и текстильных изделий приводит к падению дохода английских ткачей и вязальщиков (на их невзгоды накладывается общее падение благосостояния в стране в связи с наполеоновскими войнами).

В Ноттингемшире, где сосредоточено много подобных производств, заговорщики по ночам встречаются на торфяниках и планируют разрушительные атаки на станки; затем эта практика распространяется по всей Англии. Своим духовным предводителем они считают некого Неда Ладда — героя, впоследствии оказавшегося мифическим, но давшего движению луддитов название.

В действиях движения слились воедино недовольство экономическим положением и падением уровня качества товаров, страх перед неизбежным наступлением будущего и кризис экзистенции — все то, что характеризует и нынешний страх перед искусственным интеллектом.

Слово «неолуддит» до сих пор используется как страшное ругательство, сообщающее о том, что собеседник недалек и необразован, — при этом о неиллюзорных классовых причинах восстания предпочитают не вспоминать.

1837

Чарльз Бэббидж описывает аналитическую машину — первый компьютер, обладающий полнотой по Тьюрингу (то есть подобный всем современным компьютерам).

Бэббидж в итоге не смог раздобыть достаточно денег, чтобы соорудить свой механизм, так что он не построен по исходным схемам и по сей день.

Это не помешало Аде Лавлейс в 1843 году придумать первую современную программу, которая могла бы работать на таком компьютере, и таким образом стать первой программисткой в истории.

1902

Рассматривая артефакты, обнаруженные на затонувшем рядом с островом Антикитера древнеримском корабле, археолог Валериос Стаис обращает внимание на один из «камней»: внутри него находятся шестеренки.

Стаис предполагает, что механизм предназначался для предсказания затмений и положения небесных тел, но ему никто не верит: остальные артефакты на корабле датированы примерно I веком до нашей эры, и до 1902 года никаких астрономических механизмов той эпохи никто не находил.

О механизме забывают до середины пятидесятых годов XX века, когда несколько ученых подтверждают его природу и датировку. С тех пор так называемый антикитерский механизм, сравнимый по сложности с устройствами XIV века нашей эры, стал для кого-то символом неверия человечества в собственные способности, а для кого-то — знаком о визите инопланетян.

Как бы то ни было, механизм показывает, что математическое и механическое мышление очень высокого уровня было доступно нашим далеким предкам — и они передавали часть его машинам. Легенды об оживающих статуях из древнегреческих и древнеегипетских мифов обретают плоть и подпитывают конспирологию искусственного интеллекта.

1920

Выходит пьеса чешского драматурга Карела Чапека R.U.R. (Rossumovi Univerzální Roboti), она же «Универсальные роботы Россума».

Опираясь на античные мифы об автоматонах, на легенду о Прометее, на иудейскую концепцию големов, на теорию Сэмюэла Батлера об эволюции сознания у машин и, разумеется, на главного литературного предшественника всех рассказов о разумных механизмах — роман Мэри Шелли «Франкенштейн», — Чапек почти единолично придумывает современную художественную концепцию «робота», искусственного полуразумного слуги (справедливости ради, у Чапека это организмы, а не механизмы). Весьма характерно, что первая же история о роботах заканчивается полным уничтожением человечества. В 1923 году выйдет первая постановка на английском, а слово с простым славянским корнем закрепится в большинстве языков мира. Кроме того, блестящие металлические костюмы из фильма Фрица Ланга «Метрополис» 1927 года, созданного с явной оглядкой на R.U.R., на долгие годы определят внешний облик большинства роботов на экране.

Что расскажет об искусственном интеллекте Давид Ян на форуме hi-tech nation — видеообращение

1942

Химик, популяризатор науки и великий писатель Айзек Азимов в рассказе «Хоровод» формулирует базовые принципы не только существования искусственного интеллекта, но и написания сюжетов о нем. Они известны как «Три закона робототехники»:

  1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред.
  2. Робот должен повиноваться всем приказам, которые дает человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
  3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.
Читайте также:  Какие бизнесы в России можно сейчас скупить за полцены

Деконструкция законов Азимова в научной фантастике активно началась уже в 1950-е, когда «робот-убийца» стал тропом в фильмах категории Б, постепенно перекочевавшим и в высокобюджетные кинокартины.

Современные истории об искусственном интеллекте либо полностью игнорируют эти законы, либо модифицируют их так, чтобы сделать возможным существование воинственных роботов.

Несмотря на это, специалисты в области искусственного интеллекта и сейчас продолжают ориентироваться на технооптимистические и просциентистские позиции Азимова.

Как утверждает физик Эдвин Томпсон Джейнс в своей книге «Теория вероятности: Логика науки», в 1948 году математика и физика Джона фон Неймана на лекции спросили, может ли машина думать, на что он в запале ответил следующее: «Вы утверждаете, что есть вещи, которые машина не может выполнить.

Если вы мне укажете точно, что же именно не способна сделать машина, я всегда смогу построить такую машину, которая сможет сделать именно вот это!» Будто комментируя это высказывание, два года спустя математик, программист и герой войны Алан Тьюринг в статье предлагает одну из ключевых концепций искусственного интеллекта — тест Тьюринга, активно использующийся и по сей день (пусть и в модифицированном виде, пусть и его критика звучит все активнее). Отличить компьютер от человека Тьюринг предлагал следующим образом: задать вопрос (исключительно письменно) и получить ответ как от человека, так и от машины. Если человек, получающий ответы на свои вопросы, не может понять, где ему отвечает человек, а где — искусственный разум, то тест пройден. Сцены, основанные на прохождении или непрохождении теста Тьюринга, есть в нескольких дюжинах научно-фантастических фильмов, романов и сериалов. Выдуманный «тест Войта-Кампфа» из «Бегущего по лезвию» фактически является вариацией теста Тьюринга, где следователь задает ключевые вопросы и следит за реакцией подозреваемого. Как и во многих других случаях, отрицательный результат теста приводит к агрессии и жестокости.

1956

В Дартмутском колледже проходит конференция, где впервые официально использовано словосочетание «искусственный интеллект».

Почти все ее участники на долгие годы вперед определяют не только моду в кибернетике, развившейся из сомнительной новомодной области сороковых в полноценную науку, но и конкретно в разработке искусственного разума.

Так, Марвин Минский консультировал Артура Кларка при написании сценария фильма «2001» — одного из самых известных сюжетов об искусственном интеллекте, намеренном убивать людей (в честь Марвина назван и один из персонажей, Виктор Каминский).

1957

Психолог Фрэнк Розенблатт, уверенный в том, что машины можно обучать так же, как животных, тестирует самообучающийся электронный механизм Перцептрон — первый прототип нейросети.

В шестидесятые и семидесятые пионерские труды Розенблатта были отчасти высмеяны и забыты — в том числе вышеупомянутым Минским.

Некоторые эксперты считают, что игнорирование нейросетей как концепции затруднило развитие искусственного интеллекта на годы, а то и десятилетия: в поп-культуру нейросети полноценно вошли только в 2010-е, когда на рынки вышли самообучающиеся графические приложения и чат-боты.

1965

Европа поставит распознавание лиц на место

Сегодня, 21 апреля, Еврокомиссия представила первый в мире комплексный законопроект, посвященный ужесточению и детальному регулированию систем искусственного интеллекта (ИИ), в том числе с распознаванием лиц.

ЕС разделит технологии ИИ по степени риска для безопасности, жизни и прав граждан и будет строго ограничивать или запрещать применение технологий, если они представляют высокий риск. Инициативы ЕС представлены на фоне их массового применения властями таких стран, как Китай и др.

, и бурной общественной дискуссии о корректности и законности их применения в таких странах, как США.

Представленные сегодня инициативы ЕС вынесены на рассмотрение общественности, Европарламента и стран—членов ЕС. В случае одобрения они получат прямое действие на всей территории ЕС. Ключевым элементом законопроекта является разделение систем ИИ по степени риска для безопасности, жизни и прав граждан.

К системам ИИ с неприемлемо высоким риском предлагается относить системы, которые «манипулируют человеческим поведением, влияют на свободу выбора человека,— например, игрушки или устройства, которые поощряют опасное поведение несовершеннолетних; либо системы, которые позволяют правительствам осуществлять так называемый социальный скоринг,— моделирование поведения человека или его классификацию при помощи ИИ-анализа его поведения в соцсетях, используя такие данные, как вес, пол, возраст, внешность, место рождения и/или проживания, место работы, должность и т. п.».

Использование систем ИИ с неприемлемо высоким риском будет запрещено в ЕС.

К системам ИИ с высоким риском ЕС предлагает применять строгое ограничение и жесткий контроль до того, как такие системы будут выведены на рынок.

К ним ЕС предлагает отнести все системы с удаленной биометрической идентификацией; автоматическую оценку кредитоспособности гражданина, которая может влиять на отказ в предоставлении кредита; используемые правоохранительными органами системы ИИ, которые могут ущемлять базовые права человека, например, оценка достоверности доказательств.

Говоря о системах дистанционной биометрической идентификации, законопроект уточняет, что применение таких систем должно быть строго ограничено узкими задачами — например, «поиском пропавших детей, предотвращением неминуемой террористической угрозы, поиском и идентификацией находящегося в розыске преступника или террориста» и т. д. При этом использование таких систем все равно должно получить специальное одобрение со стороны судебного или другого независимого органа и должно быть ограничено по времени и месту.

Системами ИИ с ограниченным риском ЕС предлагает считать системы со специфическими прозрачными задачами, например чатботы.

Регулирование таких систем должно осуществляться так, чтобы «пользователь получал достаточную информацию и понимал, что он общается с машиной, получая своевременный выбор в том, чтобы продолжать такое общение или прекратить его».

К системам с минимальным уровнем риска предлагается отнести игровые приложения с применением ИИ или спам-фильтры. В законопроекте нет предложений о том, как регулировать такие системы.

Законопроект ЕС по комплексной оценке рисков и строгому регулированию систем ИИ, в том числе с дистанционной биометрической идентификацией, представлен на фоне острых споров о законности применения таких технологий в ряде стран мира и растущей тревоги правозащитников в связи с этим. Особенно распространены системы распознавания лиц в Китае, который и в целом известен активным использованием технологий для слежки и надзора за гражданами.

По данным IHS Markit, уже сейчас в Китае установлено 176 млн камер, а к 2022 году их число вырастет до 2,76 млрд, в 2018 году почти половина всего бизнеса по распознаванию лиц приходилась на Китай.

Китайские компании активно продают такие системы за рубеж, в том числе в Зимбабве, Уганду, Казахстан, Австралию, Мьянму, что некоторые правозащитники назвали «экспортом авторитаризма».

Жители Китая обеспокоены таким положением вещей.

Как следует из опубликованного в декабре опроса организации Nandu Personal Information Protection Research Center, 76% китайцев предпочли бы традиционные способы идентификации личности.

80% опрошенных опасаются утечки данных, 57% — возможности отслеживания их перемещений, 84% опрошенных хотели бы иметь возможность посмотреть собранные данные и при необходимости потребовать их удаления.

Правозащитники уже не первый год говорят о возможности использования ее для тотальной слежки и преследования несогласных.

Директор британской правозащитной организации Big Brother Watch Силки Карло назвала системы распознавания, вне зависимости от того, насколько совершенными они будут, «идеальным инструментом угнетения» и добавила, что «в крайнем случае, вы можете оказаться в обществе, где у вас нет шанса на анонимность».

С подозрением к таким технологиям в последнее время стали относиться и власти некоторых стран и регионов. Запрет на их использование уже ввели несколько штатов США — первой была Калифорния, в сентябре прошлого года установившая трехгодичный мораторий на применение таких систем полицией и другими госслужбами.

Один из авторов законопроекта — вице-президент управления ЕС по вопросам цифровой политики Маргрет Вестагер отметила, что «эти стандарты использования ИИ могут подготовить почву для этичного использования этих технологий во всем мире… Новые правила будут работать там, где это нужно, когда на кону стоят безопасность и фундаментальные права граждан ЕС». Ранее она уже подчеркивала, что «искусственный интеллект должен служить людям, поэтому его применение должно всегда соответствовать правам человека».

Евгений Хвостик

Давид Ян о системе, которая предскажет ваше увольнение — Журнал «Код»: программирование без снобизма

Это — корот­кая вер­сия под­ка­ста «Запуск зав­тра», в кото­ром наш това­рищ Самат Гали­мов гово­рит с Дави­дом Яном. Если есть вре­мя — послу­шай­те пол­ную версию:

О давиде

  • Созда­тель элек­трон­но­го сло­ва­ря Lingvo и систе­мы рас­по­зна­ва­ния доку­мен­тов FineReader. Это два пер­вых про­дук­та ком­па­нии ABBYY. Сего­дня у ABBYY есть офи­сы на мно­гих кон­ти­нен­тах и обо­рот в мил­ли­о­ны долларов.
  • Создал ком­па­нию iiko. Если вы сей­час пой­дё­те в ресто­ран, то с боль­шой веро­ят­но­стью офи­ци­ант забьёт ваш заказ имен­но в систе­му iiko.
  • Сей­час рабо­та­ет над систе­мой Yva, кото­рая обе­ща­ет пред­ска­зать пове­де­ние людей: напри­мер, когда они выго­рят или уволятся.
  • Кан­ди­дат физико-математических наук.
  • Зани­ма­ет­ся искус­ствен­ным интеллектом
  • Осно­вал 12 компаний.

Об ИИ, который предсказывает поведение людей в компании

Мы несколь­ко лет назад реши­ли при­ме­нить тех­но­ло­гии искус­ствен­но­го интел­лек­та к само­му сокро­вен­но­му, навер­ное, что есть в биз­не­се, — это к инфор­ма­ции о том, как люди сотруд­ни­ча­ют.

Мы были убеж­де­ны, что в кор­по­ра­тив­ных ком­му­ни­ка­ци­ях лежит муд­рость орга­ни­за­ции: кто силь­ный управ­ле­нец, кто силь­ный про­да­вец.

Читайте также:  Какими должны быть продавцы нового времени: проверьте — а что умеют ваши

Или, наобо­рот, кто отстра­ня­ет­ся от рабо­ты или про­яв­ля­ет себя как ток­сич­ный менеджер.

Мы поду­ма­ли, что если кто-то научит­ся рас­шиф­ро­вы­вать эту инфор­ма­цию, то он обес­пе­чит биз­не­сам все­го мира такой маги­че­ский кри­сталл и сво­е­го рода МРТ-сканер.

Напри­мер, систе­ма пока­зы­ва­ет вовле­чён­ность сотруд­ни­ков в рабо­ту: как она рас­тёт и пада­ет. Она пока­зы­ва­ет про­дол­жи­тель­ность рабо­че­го дня, как быст­ро люди отве­ча­ют на пись­ма, есть ли у них про­бле­мы, есть ли кон­флик­ты. Мож­но уви­деть при­зна­ки выго­ра­ния сотрудников.

Как предсказать увольнение

Мож­но даже пред­ска­зать уволь­не­ние — ино­гда до того, как сам сотруд­ник при­нял реше­ние уво­лить­ся. У нас есть ситу­а­ции, когда систе­ма пред­ска­зы­ва­ла уволь­не­ние за 11 меся­цев. Систе­ма делит этот пери­од на три фазы: фаза фруст­ра­ции, фаза ран­не­го выго­ра­ния и фаза позд­не­го выгорания.

Это нуж­но, что­бы удер­жи­вать сотруд­ни­ков. Каж­дая орга­ни­за­ция вкла­ды­ва­ет огром­ные день­ги, силы, любовь в каж­до­го сотруд­ни­ка. И очень обид­но, если из-за чего-то чело­век реша­ет уйти. Хочет­ся нахо­дить ситу­а­ции каких-то недо­по­ни­ма­ний на ран­нем эта­пе, что­бы их испра­вить и что­бы хоро­шие сотруд­ни­ки оставались.

Мы созда­ли такую ней­ро­сеть и так её обу­чи­ли, что она научи­лась нахо­дить изме­не­ния в точ­ках кор­по­ра­тив­но­го сотруд­ни­че­ства чело­ве­ка в пери­од за несколь­ко меся­цев до того, как он увольняется.

Ока­зы­ва­ет­ся, в такие момен­ты мы меня­ем своё пове­де­ние. Это свя­за­но с тем, как быст­ро мы отве­ча­ем на пись­ма, кому и когда мы пишем, какое коли­че­ство новых писем и тре­дов мы начи­на­ем; хва­лим мы сво­их кол­лег или не хва­лим; хва­лят ли нас; есть ли похва­ла вверх или вниз по иерар­хии, за пре­де­лы ком­па­нии, внут­ри компании.

Полу­ча­ет­ся такой граф ком­му­ни­ка­ций: это десят­ки тысяч точек дан­ных, кото­рые каж­дый сотруд­ник порож­да­ет еже­год­но. И если смот­реть на отдель­но взя­тую мет­ри­ку, то ниче­го не меня­ет­ся. А вот всё вме­сте — ока­зы­ва­ет­ся, там лежит эта инфор­ма­ция, мы немнож­ко меня­ем­ся в этот период. 

И вот мы научи­ли ней­ро­сеть заме­чать эти изме­не­ния и с опре­де­лён­ной веро­ят­но­стью пред­ска­зы­вать увольнение.

Был слу­чай в самой ком­па­нии Yva, где мы раз­ра­ба­ты­ва­ем эту тех­но­ло­гию. У нас было 15 сотруд­ни­ков, и мы дума­ли, что мы всё про всех зна­ем. И вот мы пер­вый раз пока­зы­ва­ем модель выго­ра­ния самим себе на стен­да­пе. Дан­ные по нам самим: все сотруд­ни­ки пока­зы­ва­ют­ся на экране: кто выго­ра­ет, кто — нет.

И тут два инже­не­ра пока­зы­ва­ют­ся в зоне выго­ра­ния. То есть у них веро­ят­ность уволь­не­ния доста­точ­но высо­кая. Мы пере­гля­ды­ва­ем­ся: один как-то про­мол­чал, а дру­гой гово­рит: «Ребят, я же гово­рил, что это не рабо­та­ет. Ну посмот­ри­те, ерун­да какая-то». Допу­стим, его Олег зовут. Он был одним из наших клю­че­вых сотрудников.

Я гово­рю: «Олег, ты ска­жи, если что не так». Он гово­рит: «Да нет, нет, нет, всё нор­маль­но, я не соби­ра­юсь уволь­нять­ся». Дело про­ис­хо­дит в апреле. 

  • Через четы­ре меся­ца он уволь­ня­ет­ся. И когда он уволь­ня­ет­ся, про­ис­хо­дит разговор: 
  • — Олег, а поче­му ты гово­рил, что ты не соби­ра­ешь­ся увольняться?
  • — А я не собирался.

— Но ты год назад подал заяв­ле­ние на пере­езд на посто­ян­ное место житель­ства в Евро­пу. То есть ты же знал, что ты уезжаешь.

— Ну, пони­ма­ешь, мне в апре­ле тогда ещё визу не дали, вот я как бы и гово­рил, что не соби­ра­юсь увольняться.

А систе­ма на самом деле уви­де­ла при­мер­но с того момен­та, когда он подал визу, его изме­не­ние. Так что быва­ет так, что ты рабо­та­ешь с чело­ве­ком вот так рядом и совер­шен­но не пони­ма­ешь этого.

Этический вопрос предсказаний

Очень важ­но, что мы достав­ля­ем эту инфор­ма­цию в первую оче­редь само­му сотруд­ни­ку в его лич­ный даш­борд. И подоб­ный ана­лиз про­ис­хо­дит с согла­сия сотруд­ни­ка. Это совер­шен­но прин­ци­пи­аль­но. С одной сто­ро­ны, мы созда­ём эту инфор­ма­цию для сотруд­ни­ка, с дру­гой — мы спра­ши­ва­ем его разрешение.

Мы счи­та­ем, что эти­че­ский водо­раз­дел нахо­дит­ся в сле­ду­ю­щем: кому при­над­ле­жат дан­ные, кто ини­ци­и­ру­ет ана­лиз и для чего он это делает. 

Если дан­ные при­над­ле­жат само­му сотруд­ни­ку и если он явля­ет­ся хозя­и­ном и ини­ци­а­то­ром это­го ана­ли­за, это его реше­ние. Каж­дый сотруд­ник может при­нять реше­ние, допу­стим, что он не хочет, что­бы созда­вал­ся лич­ный каби­нет о том, как он работает.

Более того: систе­ма име­ет несколь­ко уров­ней приватности.

  • Пер­вый уро­вень — ты не раз­ре­ша­ешь систе­ме ана­ли­зи­ро­вать своё пове­де­ние вообще.
  • Сле­ду­ю­щий уро­вень — ты раз­ре­ша­ешь ана­ли­зи­ро­вать, но толь­ко с целью того, что­бы пра­виль­но зада­вать вопро­сы про пра­виль­ных людей. Но систе­ма не име­ет пра­ва счи­тать выго­ра­ние, шири­ну рабо­че­го дня и всё прочее. 
  • Самая глу­бо­кая сте­пень при­ват­но­сти — когда ты раз­ре­ша­ешь систе­ме смот­реть содер­жа­ние пере­пис­ки для цели вытас­ки­ва­ния таких семан­ти­че­ских сиг­на­лов, как похва­ла, пози­тив, нега­тив, когда мы ста­вим зада­чи друг другу.

Такие семан­ти­че­ские кон­струк­ции систе­ма вытас­ки­ва­ет из содер­жа­ния, ста­вит над­пи­си на кон­вер­те «здесь есть зада­ча», «здесь есть похва­ла», «здесь есть пози­тив», «здесь есть нега­тив». И даль­ше она не хра­нит в себе само содер­жа­ние переписки. 

Как это ни стран­но, боль­шин­ство людей раз­ре­ша­ют систе­ме самый глу­бо­кий уро­вень при­ват­но­сти. У нас прак­ти­че­ски нет слу­ча­ев, когда сами сотруд­ни­ки отка­зы­ва­лись от анализа. 

Когда сотруд­ни­ки участ­ву­ют в опро­сах и отве­ча­ют на вопро­сы про дру­гих людей, в кон­це у них есть кноп­ка: «А хочешь посмот­реть инфор­ма­цию о себе, как твои кол­ле­ги по рабо­те реко­мен­ду­ют тебе улуч­шить­ся?». Это ока­зы­ва­ет­ся настоль­ко важ­но, что люди под­пи­сы­ва­ют­ся на систе­му и дают согла­сие и полу­ча­ют этот лич­ный кабинет.

О пивоте

Когда мы начи­на­ли делать Yva, это была систе­ма умно­го поис­ка по доку­мен­там в почте. Потом про­изо­шёл клас­си­че­ский пивот в сти­ле стар­та­пов Крем­ни­е­вой доли­ны.

Мы начи­на­ли с того, что хоте­ли решить про­бле­му, когда ты зна­ешь, что у тебя есть этот доку­мент, но ты не можешь его най­ти. И эта про­бле­ма нику­да не дева­лась, кажет­ся, что она до сих пор есть.

И когда-нибудь всё-таки, навер­ное, кто-нибудь её решит. 

Но что­бы вооб­ще решить про­бле­му умно­го семан­ти­че­ско­го поис­ка, надо дей­стви­тель­но было понять и сан­ти­мен­ты, и зада­чи, и мно­гое дру­гое.

Пока мы реша­ли эту зада­чу, у нас появи­лось 160 000 поль­зо­ва­те­лей, и как-то вдруг наши поль­зо­ва­те­ли нача­ли гово­рить: «Слу­шай, Давид, а что, ваша систе­ма уме­ет пони­мать пози­тив­ные и нега­тив­ные пись­ма? Она уме­ет пони­мать, что в пись­ме была постав­ле­на зада­ча? А она может напо­ми­нать, что зада­ча была постав­ле­на кем-то, а я не отве­тил? Она может мне помочь про­сто най­ти те пись­ма, где меня о чём-то про­си­ли, а я так и не отве­тил и забыл про это?» На всё это у нас был поло­жи­тель­ный ответ.

Так появи­лась систе­ма Yva Task Assistant. Это был про­ме­жу­точ­ный пивот меж­ду Findo и теку­щей Yva. И мы это сде­ла­ли. У нас появи­лось мно­го поль­зо­ва­те­лей, кото­рые ска­за­ли: «О, кру­то, то есть теперь она может под­ска­зы­вать неис­пол­нен­ные задачи!» 

И вот когда мы уже отра­ба­ты­ва­ли эту про­дук­то­вую идею, мы вдруг уви­де­ли боль­шой пласт: мы вдруг поня­ли, что мож­но сде­лать систе­му, кото­рая в целом помо­жет сотруд­ни­ку стать эффек­тив­нее: раз­вить лидер­ские каче­ства, вовле­чён­ность, удо­вле­тво­рён­ность, управ­ле­ние коман­да­ми и т. д.

И эта зада­ча, ока­зы­ва­ет­ся, огром­ная, это мно­го­мил­ли­ард­ный биз­нес. Он назы­ва­ет­ся Employee Experience Platforms. Их толь­ко на паль­цах одной руки мож­но насчи­тать, навер­ное, — это мил­ли­ард­ные компании.

Но мы поня­ли и дру­гое — что все эти ком­па­нии очень old-fashioned, они в основ­ном исполь­зу­ют актив­ную ана­ли­ти­ку и опро­сы. А мир ушёл впе­рёд.

Нель­зя ли эти опро­сы снаб­дить объ­ек­тив­ной ана­ли­ти­кой того, как на самом деле люди рабо­та­ют? Не спра­ши­вать о том, как вы рабо­та­е­те, а на самом деле смот­реть, чем отли­ча­ет­ся силь­ный про­да­вец от сла­бо­го про­дав­ца, силь­ный управ­ле­нец от сла­бо­го? Вот этот оре­шек мы хоте­ли вскрыть.

Предсказание успешности человека

Есть такая тема: понять, како­го типа чело­век. Он из того типа, кото­рый, ско­рее все­го, ста­нет через два-три года самым силь­ным и успеш­ным, про­дви­нет­ся по служ­бе и ста­нет началь­ни­ком. Или он через шесть меся­цев поки­нет рабо­ту? Сей­час Yva не уме­ет это­го делать.

Yva нужен хотя бы за восемь меся­цев исто­ри­че­ский циф­ро­вой след сотруд­ни­ка, что­бы начать при­ни­мать какие-то реше­ния. Это не зна­чит, что после уста­нов­ки Yva пер­вые восемь меся­цев она не рабо­та­ет.

Она смот­рит исто­ри­че­ские дан­ные: она тебе пока­жет сра­зу всю исто­рию тво­ей ком­па­нии, все твои взлё­ты и паде­ния. Но если сам сотруд­ник рабо­та­ет мень­ше вось­ми меся­цев у тебя в ком­па­нии, то у тебя будет огра­ни­чен­ная инфор­ма­ция.

И мы сей­час над этим работаем.

Ошибки системы

Как и у любой систе­мы, постро­ен­ной на ста­ти­сти­ке и на глу­бо­ком обу­че­нии, у неё есть поня­тия false positive, false negative, ошиб­ки пер­во­го рода, ошиб­ки вто­ро­го рода. И в этом смыс­ле инфор­ма­цию, кото­рую пока­зы­ва­ет любая подоб­ная систе­ма, необ­хо­ди­мо рас­смат­ри­вать толь­ко как один из сигналов. 

Что каса­ет­ся семан­ти­че­ских сиг­на­лов: как постав­ле­на зада­ча, пись­мо, тре­бу­ю­щее отве­та, похва­ла. Там точ­ность на 100 язы­ках доста­точ­но высо­кая: более 90, 92% и выше.

Что каса­ет­ся оце­нок выго­ра­ния и пред­ска­за­ний уволь­не­ния, на допан­де­ми­че­ских дан­ных и на моде­ли «из короб­ки» точ­ность была от 58 до 86%.

Но, напри­мер, мы хоро­шо пони­ма­ем, что в пери­од пан­де­мии изме­ни­лось всё.

То есть даже если мы были чем-то недо­воль­ны и уже дума­ли о поис­ке новой рабо­ты до 31 мар­та, то начи­ная с апре­ля огром­ное коли­че­ство людей изме­ни­ли своё реше­ние о потен­ци­аль­ном увольнении.

Что ещё

В пол­ной вер­сии под­ка­ста — о рабо­те Дави­да с уни­вер­си­тет­ской ска­мьи, ком­па­ни­ях ABBYY и дру­гих пред­при­я­ти­ях, а так­же об эмо­ци­о­наль­ном доме и роботе-собаке с эмо­ци­о­наль­ным интел­лек­том. Страш­ные вещи рас­ска­зы­ва­ет. Слу­шай­те, если хоти­те ока­зать­ся в будущем.

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *