Лучший искусственный интеллект в играх, или Почему ИИ — это подделка. Зачем нужен искусственный интеллект


Сегодня человечество переживает четвертую промышленную революцию, которая характеризуется достижениями в области робототехники и беспилотной автомобильной техники, распространением умных бытовых приборов и т. д. И «впереди планеты всей» находится искусственный интеллект (ИИ), являющийся развитием автоматизированных компьютерных систем, которые могут соответствовать или даже превосходить людей в интеллекте. ИИ считается следующей глобальной технологией - настолько глобальной, что будущие технологии будут зависеть от нее. Но все не настолько гладко с искусственным интеллектом, есть ряд очень спорных моментов, по поводу которых есть весомые опасения.

1. Беспилотный автомобиль может быть запрограммирован на то, чтобы убить водителя


Предположим, человек едет по дороге. Затем внезапно на дорогу перед машиной выскакивает ребенок. Водитель нажимает на тормоза, но они не срабатывают. Тогда у него есть два варианта: или сбить ребенка, или свернуть в столб, при этом разбившись насмерть. Большинство людей согласны с тем, что предпочтут свернуть в столб, на верную смерть. Однако, теперь стоит представить, что автомобиль беспилотный, и человек едет в роли пассажира. Захочет ли он, чтобы авто само свернуло в столб, убив его... Большинство людей, которые согласились, что они сами готовы разбиться, спасая жизнь ребенка, заявили, что они не хотят, чтобы машина самостоятельно свернула в столб, убив их. Более того, они утверждают, что даже не купят такой автомобиль, если будут знать, что он подвергнет их риску в результате несчастного случая. Это приводит к закономерному вопросу: что нужно делать машине, и как ее нужно программировать. Что самое интересное, производители беспилотных автомобилей уклоняются от ответа на подобный вопрос.

2. Роботы могут потребовать равных прав с людьми


С нынешними тенденциями развития искусственного интеллекта вполне возможно, что роботы достигнут стадии самоосознания. Когда это произойдет, они могут потребовать равных прав с людьми. То есть, они будут нуждаться в жилищных и медицинских услугах, а также потребуют, чтобы им разрешили голосовать, служить в вооруженных силах и получать гражданство. Подобные результаты были опубликованы в качестве результата UK Office of Science и Innovation’s Horizon Scanning Center еще в 2006 году, когда ИИ был гораздо менее развит. Ожидалось, что машины достигнут уровня самоосознания через 50 лет (т.е. уже через 40 лет).

3. Автоматические роботы-убийцы


Под фразой «автоматические роботы-убийцы» обычно подразумевают роботов, которые могут убивать без вмешательства людей. При этом не учитывают дронов, потому что они контролируются людьми. Один из автоматических роботов-убийц, о которых сейчас идет речь, - это SGR-A1, сторожевая турель, разработанная Samsung Techwin (ныне Hanwha Techwin) и Корейским университетом. SGR-A1 напоминает огромную камеру наблюдения, за исключением того, что она оснащена мощным пулеметом, который может автоматически открывать огонь по цели. SGR-A1 уже используется в Израиле и Южной Корее, которая установила несколько турелей вдоль своей демилитаризованной зоны (DMZ) с Северной Кореей. Тем не менее, Южная Корея отрицает активацию автоматического режима, который позволяет машине самой решать, кого убивать, а кого нет. Вместо этого турели находятся в полуавтоматическом режиме, при котором они обнаруживают цели, после чего требуется подтверждение оператора-человека для того, чтобы начать огонь.

4. Военные роботы могут переходить на сторону противника


В 2011 году Иран захватил американский беспилотный самолет-невидимку RQ-170 Sentinel в неповрежденном состоянии. При этом беспилотник не был сбит - Иран утверждает, что самолет «приземлили» посредством подмены GPS-сигнала (заставив его «думать», что он находится на дружественной территории). Дроны, GPS и роботы основаны на компьютерах, и, как все знают, компьютеры можно взломать. Военные роботы ничем не будут отличаться, если они когда-либо будут применяться на поле боя. Фактически, есть все возможности, что вражеская армия попытается взломать роботов и использовать их против «хозяина». Автономные роботы-убийцы еще не получили широкого распространения, поэтому примеров их взлома пока нет. Но стоит себе только представить, что будет, если армия роботов внезапно повернется против своих хозяев.

5. Боты для распространения пропаганды в Twitter


Боты захватывают Twitter. Исследования Университета Южной Калифорнии и Университета Индианы показали, что около 15% (48 миллионов) из всех учетных записей Twitter управляются ботами (при этом Twitter настаивает на том, что этот показатель составляет около 8,5 процента). Чтобы внести ясность, не все эти боты плохие. Некоторые из них действительно полезны. Например, есть боты, которые информируют людей о стихийных бедствиях. Однако есть и такие, которые используются для пропаганды. В качестве примеров можно привести ботов, которые подталкивали избирателей к голосованию за Дональда Трампа во время выборов в 2016 году, а также избирателей Великобритании к тому, чтобы проголосовать за выход из Европейского Союза во время референдума Brexit 2016 года.

6. Машины займут рабочие места людей


Несомненно, машины однажды будут работать на большинстве мест, на которых сегодня работают люди. Однако, никто не знает, когда это случится и в какой степени. По словам ведущей консалтинговой и аудиторской фирмы PricewaterhouseCoopers (PwC), роботы оккупируют 21 процент рабочих мест в Японии, 30 процентов рабочих мест в Великобритании, 35 процентов рабочих мест в Германии и 38 процентов рабочих мест в Соединенных Штатах Америки в 2030 году. А к следующему столетию они займут более половины рабочих мест, доступных людям. Самым пострадавшим сектором будет транспортировка и хранение, где 56 процентов рабочей силы будут машинами. За ним следуют производственный и розничный сектора, где машины займут более 46 и 44% всех имеющихся вакансий. Говоря о том «когда это случится», предполагается, что к 2027 году машины будут управлять грузовиками, а к 2031 году работать в розничных магазинах. К 2049 году они будут писать книги, а к 2053 году выполнять операции. Только несколько профессий не «пострадают» от нашествия машин. В качестве одного из примеров можно привести вакансию священника.

7. Роботы научились обманывать


Подобно своим создателям, роботы учатся обманывать. В ходе одного из экспериментов исследователи из Технологического института Джорджии в Атланте разработали алгоритм, позволяющий роботам решать, следует ли обманывать других людей или роботов. Если роботы решали пойти по пути обмана, исследователи включали алгоритм, позволяющий роботу решить, как обманывать людей и роботов, уменьшая вероятность того, что человек или робот узнают об обмане. О подробных результатах эксперимента информации не поступало, кроме того, что он был успешен. Этот эксперимент был организован Управлением США по морским исследованиям, что означает, что потенциально лгущие роботы могут применяться в военных целях.

8. Рынок ИИ монополизирован


Рынок ИИ монополизируется. Крупные компании покупают небольшие старт-апы по разработке ИИ с угрожающей скоростью. При нынешних тенденциях ИИ будет окончательно доработан очень небольшим количеством корпораций. По состоянию на октябрь 2016 года в отчетах указывалось, что крупные компании, такие как Apple, Facebook, Intel, Twitter, Samsung и Google, приобрели 140 предприятий по разработке искусственного интеллекта в течение последних пяти лет. В первые три месяца 2017 года крупные технологические компании купили 34 старт-апа ИИ. Что еще хуже, они также платят огромные деньги, чтобы нанять лучших ученых в области искусственного интеллекта.

9. ИИ превзойдет людей в интеллекте


Искусственный интеллект подразделяется на две группы: сильный и слабый ИИ. ИИ, который существует сегодня, классифицируется как слабый ИИ. Он включает в себя «умных помощников» и компьютеры, которые побеждают шахматных гроссмейстеров с 1987 года. Разница между сильным и слабым ИИ - это способность рассуждать и вести себя как человеческий мозг. Слабый ИИ обычно выполняет то, на что его запрограммировали, а сильный ИИ обладает сознанием и способностью мыслить, как человек. Он не ограничивается рамками своей программы и может сам решать, что делать, а чего не нужно делать без участия человека. На данный момент сильного ИИ не существует, но ученые предсказывают, что он должен появиться примерно через десять лет.

10. ИИ может уничтожить людей


Есть опасения, что в мире может наступить Апокалипсис, точно так же, как это произошло в фильме «Терминатор». Предупреждения о том, что ИИ может уничтожить людей, исходят не от каких-то «диванных аналитиков» или теоретиков заговора, а от таких выдающихся профессионалов, как Стивен Хокинг, Илон Маск и Билл Гейтс. Билл Гейтс считает, что ИИ станет слишком умным, чтобы оставаться под контролем людей. Аналогичного мнения придерживается Стивен Хокинг. Он не думает, что ИИ внезапно устроит «кровавую баню». Скорее, он полагает, что машины уничтожат людей, став слишком компетентными в том, что они делают. Конфликт людей с ИИ начнется с того момента, когда его цель больше не будет совпадать с нашей. Илон Маск сравнивает распространение ИИ с «вызовом демонов». Он считает, что это самая большая угроза для человечества. Чтобы предотвратить Апокалипсис и вымирание людей, он предложил, чтобы правительства начали регулировать развитие ИИ, прежде чем коммерческие компании «сделают большую глупость».

К слову, о достижения инженеров компании Илона. Совсем недавно , тем самым доказав, что подобные автомобили очень скоро заменят привычные машины на двигателе внутреннего сгорания.

Юлия Сухорослова, руководитель программы поддержки научно-технических проектов «Инновационная радиоэлектроника », ответила на актуальные вопросы про искусственный интеллект. Не обошлось без обсуждения «страшилок», правда бояться нужно не захвата планеты роботами.

- Есть ли такие области, где искусственный интеллект точно ни к чему?

Интеграция технологий, в том числе и искусственного интеллекта, во все сферы жизни человека закономерна - не думаю, что мы должны проводить границы. Если ИИ способен подобрать ученику онлайн-школы более эффективную программу обучения или спрогнозировать риск инфаркта по ЭКГ, разве это плохо? Естественно, искусственный интеллект не должен заменять человеческий - он должен быть помощником, а не господином. Сбор информации, анализ, рекомендации можно отдать ему на «аутсорсинг», финальное принятие решений - никогда.

- Какие события и открытия в сфере ИИ вы бы назвали самыми значимыми в 2018 году?

Подводить итоги, на мой взгляд, еще рано - и год не закончился, и результаты открытий нельзя оценивать только по факту их свершения. Важными считаю разработки в области медицины. Например, ученые из Института Генриха Герца создали систему автоматизированной диагностики инфаркта миокарда на основе самообучающейся компьютерной программы. А научные сотрудники Токийского университета разработали систему анализа Ghost Cytometry, которая совершенствует технологию обнаружения раковых клеток в крови человека.

- Какие проекты в области ИИ сейчас актуальны? Какие насущные проблемы нужно решить?

Системы на базе искусственного интеллекта сегодня наиболее актуальны для аналитики в компаниях, оперирующих массивами больших данных: это медицина, нефтегазовая отрасль, логистика, физическая и информационная безопасность. На особой волне хайпа - проекты в области беспилотного транспорта (самые известные - Tesla и «Яндекс») и автоматизации клиентского обслуживания. Компании ищут способы не только автоматизировать рутинные операции вроде работы службы поддержки, но и зацепить клиента необычным сервисом - хотя чат-ботами сегодня уже мало кого удивишь. Российское представительство Coca-Cola недавно успешно протестировало робота Веру в ходе одной из HR-кампаний - она проводила первичное собеседование с кандидатами на одну из лидерских программ компании.

- В каких проектах в области искусственного интеллекта заинтересована «Инновационная радиоэлектроника»?

В этом году мы впервые запустили набор проектов в области ИИ и пока присматриваемся к уровню подготовки и экспертизе. В текущем сезоне таких проектов было немного. Мы не отбираем команды под решение конкретных задач, по крайней мере на нынешнем этапе развития у нас таких целей нет. Рады поддержать проект в развитии и рыночной реализации, а также любую инициативу в этой области, если она найдет достойное применение на практике.

- Есть ли сейчас такая задача, решая которую, проект на 100 % получает поддержку?

Нет, такой задачи нет. За сезон проект проходит несколько стадий и оценивается по ряду критериев: отдельно рассматриваются прототипы, бизнес-планы, попадание в рынок и ЦА и прочее. Окончательное решение принимает экспертная комиссия по результатам очной защиты проекта. Проекты проходят через несколько фильтров, после чего и формируется полное понимание, какие задачи они решают, насколько актуальны и какие у него перспективы на рынке. Из этого складывается решение о поддержке проекта.

- Какие стартапы в этой сфере вы считаете наиболее успешными?

Мне очень близки технологические проекты, которые глобально могут позитивно повлиять на человечество. К таким относится система Watson for Oncology, разработанная в онкологическом центре имени Слоуна-Кеттеринга в Нью-Йорке. Программа анализирует индивидуальные планы лечения, данные онкологической экспертизы, а также использует массивы медицинской литературы в объеме более 300 научных журналов, 200 учебников и почти 15 миллионов страниц текста. Система ранжирует опции лечения, привязывая их к независимым исследованиям и клиническим рекомендациям.

Очень интересны проекты стартапа NTechLab и их сверхточный алгоритм распознавания лиц. Особенно приятно, что эта российская команда востребована и за рубежом - обычно отечественным стартапам довольно сложно пробиться на западные рынки.

- Есть ли моменты в сфере ИИ, которые вас пугают или удивляют?

Классические страшилки о порабощении человечества роботами и искусственным интеллектом хороши для сюжета фантастического фильма, но с реальностью имеют мало общего. По крайней мере в ближайшие сто лет технологии навряд ли выйдут на такой уровень - современные роботы больше похожи на героев фильма «Трансформеры», чем на робо-девушку Софию.

Однако уже сейчас ИИ следует особо контролировать в некоторых областях: например, во всем, что связано с информационной безопасностью. Отдельно нужно учитывать влияние искусственного интеллекта на самостоятельность человека - полностью полагаясь на виртуальных помощников, мы перестаем развивать собственные навыки. Особенно это касается людей, применяющих ИИ повсеместно, даже в бытовой домашней рутине.

- Когда человек сможет разговаривать с искусственным интеллектом наравне?

Думаю, это возможно уже сейчас. Необходимо обучить ИИ на основе анализа огромного количества диалогов. Один из примеров - яндексовская Алиса, которая может на простом уровне поддержать беседу. Она сильно эволюционировала с тех пор, как была выпущена.

Когда ИИ сможет понимать иронию и многогранные значения русского мата в зависимости от контекста? Что для этого нужно?

Распознавание нецензурной брани с точки зрения алгоритма ничем не отличается от обработки любых других слов. Мат, ирония, значение слова в контексте требует просто немного больше времени на машинное обучение. Легче распознать голосовое сообщение, потому оно несет эмоцию и интонацию. Гораздо сложнее научить машину понимать шутки в тексте- это не всегда под силу даже человеку, особенно если собеседник на другом конце мессенджера не использует эмодзи или другие символы.

Для вдохновения рекомендую футуристическую классику: «Матрица», «Терминатор» «Я робот», «Двухсотлетний человек», «На крючке», «Она», «Из машины», «Превосходство», сериал «Мир Дикого запада». Из художественной литературы - Стругацких и Айзека Азимова. Если хочется чего-то более реального, в формате «прямо сейчас в мире», то советую добавить в закладки раздел «Технологии» TED Talks. Из последнего меня впечатлила лекция о том, как беспилотники используют для доставки донорской крови.

По мероприятиям могу дать такой совет: обращайте внимание на организаторов. Очень хорошо, если это крупная IT-компания или компания на стыке отраслей - из сферы финтеха, например. Выбирать нужно, основываясь на своем уровне знаний и мотивации - ходить «просто послушать» абсолютно бессмысленно. Как вариант, можно начать с AI Conference в ноябре 2018 или Opentalks.ai в феврале 2019.

Когда люди сталкиваются с машинами, умеющими реагировать так же как, люди, компьютерами, легко решающими логические и стратегические задачи, имитируя человеческую логику, большинству представителей человеческого рода становится неуютно. Все чаще закрадывается мысль, что в совсем недалеком будущем человечество потеряет свое главенство, подпав под иго роботов.

Фантазии кинематографа

В каждой шутке, как известно, есть только доля шутки, а остальное - горькая правда и повод для беспокойства. Масса научно-фантастических фильмов долгое время спекулировали на теме искусственного интеллекта, сумевшего перешагнуть в своем развитии своих создателей, и в конечном итоге поработив человечество или создав условия для вымирания людей.

Конфликты между человеком и машиной в фильмах развиваются по всем направлениям - образуется фронт боевых действий или идет подспудное уничтожение всего живого, причин которому в человеческих понятиях не существует.

Яркий образ агрессивного ИИ был впервые показан в фильме «Терминатор» в образе проекта "Скайнет". На протяжении пяти фильмов авторы саги пытаются понять, что представляет большую опасность для человечества - машина, обретшая самосознание, или люди, использующие мощь машины в собственных целях.

Предупреждения Маска

Картины такого рода становятся страшилками для любого обывателя, особенно если ведущие представители мира науки это поддерживают и усугубляют. За последние годы ученые раздвинули границы понимания того, что может искусственный интеллект. Многие специалисты, обладающие высоким уровнем доверия общественности, сделали громкие заявления о том, какие опасности подстерегают Homo Sapiens, о тех потенциальных угрозах, которые может принести дальнейшее развитие интеллекта машин.

Более того, многие ученые считают, что угроза не просто нависла над людьми, а уже стала реальностью и остановить процесс практически невозможно. Илон Маск уверен, что это уже происходит.

В июле 2017 года на заседании Национальной ассоциации губернаторов он заявил, что наблюдал за несколькими очень развитыми искусственными интеллектами, и, по его мнению, людям есть чего бояться. Он уточнил, что легкомысленность в этом вопросе может привести к пагубным последствиям. Также Маск считает, что люди опомнятся только в тот момент, когда ИИ станет "новым бессмертным Гитлером".

Опасения Хокинга

Физик Стивен Хокинг, уже покинувший мир, также выражал озабоченность по поводу активного внедрения в обиход искусственного интеллекта, предполагая, что он принесет уничтожение человеческой расе.

Свои опасения он связывал с тем, что развитые технологии приведут к деградации человека. Активное внедрение ИИ может сделать человека беспомощным перед силами природы, что в условиях эволюции и видовой борьбы приведет к гибели Homo Sapiens.

Люди могут научить ИИ быть злобным

Группа сотрудников MIT Media Lab Кембриджского университета Массачусетса создала нейронную сеть, названную «Машиной кошмаров». Запущенная в 2016 году, она трансформировала обычные цифровые фотоснимки в ужасающие картины возможного будущего человечества.

Еще один искусственный интеллект носит название «Шелли», создатели заложили в программу способность к самообучению на литературном поприще в жанре ужасов. Машина проанализировала 140 тысяч страшных рассказов, сказок и теперь ежедневно выдает по новому произведению. Эксперимент продолжается и сегодня, рассказы «Шелли» выкладываются на одну из интернет-площадок.

Более того, пользователи могут поучаствовать в развитии искусственного интеллекта, написав начало истории, к следующему дню «автор» выложит свою версию развития сюжета. Все написанные террабайты хранятся в памяти «Шелли» и анализируются, что повышает разнообразие «литературных» опытов, таким образом, машина самообучается.

Развитие, контроль и рамки

Не все ученые разделяют опасения и видят мир в апокалиптических тонах из-за развития искусственного интеллекта. Доцент кафедры компьютерных наук Корнельского университета Килиан Вайнбергер считает, что проблема надумана. Ученый называет причины, по которым происходит противостояние. Существует два вида человеческого страха перед неизвестным. Первое опасение состоит в том, что ИИ станет сознательным и уничтожит своего создателя и главного конкурента. Второй страх более реален и основывается на понимании природы человека - аморальные люди будут использовать умные машины в личных целях.

Ученый считает: страх, что ИИ разовьет сознание и будет занят свержением человечества, возникает от непонимания того, что представляет собой искусственный интеллект. Любая машина программируется и работает с огромным количеством ограничений, согласно четкому алгоритму, определяющему ее поведение. То есть любой ИИ совершает манипуляции, интеллектуальные игры только в очерченных границах.

Если машина пишет литературные рассказы, то без соответствующей программы, заложенной в нее человеком, она не сможет рассчитать километраж машины, двигающейся из пункта «А» в пункт «В». Также техника без соответствующего обеспечения не может «понять», создать алгоритм уничтожения или создания чего-либо, будь то посев пшеницы или устранение паука. Вайнсберг считает, что в обозримом будущем не существует предпосылок для появления у машин сознания, равного человеческому.

Человеческий фактор

Более реальной угрозой является возможность того, что ИИ окажется в руках людей с отсутствием морали и нравственности, но целиком поглощенных идеей достижения собственных целей. Если погрузиться в изучение этой проблемы, то она действительно оказывается устрашающей в масштабах всего человечества. Причем, чтобы это понять, не нужно рассматривать философскую проблематику. Достаточно вспомнить о Министерстве вооруженных сил любой державы, стремящейся к мировому господству.

Любой инструмент может быть использован во благо и во вред в зависимости от намерений людей, решивших его применить. Нож создавался для охоты и использования в мирных целях, но его совершенствование и разнообразие форм - во много заслуга людей, склонных к насилию.

Люди все еще пугаются искусственного интеллекта, не совсем понимая, что сами являются его создателями и главными регуляторами. От того, какая программа будет заложена в бездушную машину, напрямую зависит результат ее деятельности.

Увидеть благо

Вайнсберг считает, что если отбросить надуманные страхи, то ИИ может существенно облегчить жизнь человека, сделав ее более безопасной и комфортной. Преимущества машин можно использовать в медицине, например компьютер, обследовав родинку, моментально оценит злокачественности образования. Самоуправляемые автомобили способны полностью устранить проблему аварий на дорогах, уносящих миллионы жизней по всей планете.

Сейчас большинство людей не может понять природу искусственного интеллекта, а все неизвестное пугает человека с огромной силой, заставляя делать неверные выводы и поступки. Начавшееся противостояние будет продолжаться достаточно долго, но при этом ученые будут продолжать совершенствовать ИИ. Возможно, в какой-то момент в споре будет поставлена точка, но сделано это будет в тот момент, когда люди откажутся от спекуляций на волнующей теме и найдут в себе силы дать исчерпывающие ответы на простые вопросы.

Пока менеджер Илон Маск паникует и пытается создать комитеты слежения за искусственным интеллектом во имя спасения человечества, профессиональные инженеры из IEEE заставили всех соблюдать законы робототехники. Хочешь проектировать ИИ? Только если обеспечишь безопасность.

Причем тут Илон Маск и Марк Цукерберг?


Еще 15 июля Илон Маск призвал американских губернаторов создать организацию для слежки за системами искусственного интеллекта. Мотив простой - по мнению Маска , рано или поздно они уничтожат человечество. Но мы еще этого не замечаем:

Илон Маск:

Пока люди не видят роботов, убивающих людей на улицах, они не знают, как реагировать, потому что такой сценарий кажется им нереалистичным.


Парадоксальное выступление от человека на острии науки, правда? Его высмеял даже Цукерберг. Невольно задумываешься - он вообще понимает, о чем говорит? Действительно ли он в состоянии проектировать будущее? Или, может быть, за этим предложением прячется желание законодательно одобренного шпионажа для получения новейших разработок?

Спи сладко, Илон. Спи сладко, читатель. За тебя уже все сделали в IEEE. ИИ больше не навредит.

Кто такие IEEE?


IEEE - , международная некоммерческая организация-разработчик стандартов по радиоэлектронике, электротехнике и аппаратному обеспечению вычислительных систем и сетей.

Фактически, организация обобщает и приводит к общему знаменателю разрозненные разработки, превращая их в единую систему: как для справки, так и для развития. С помощью этих стандартов разные разработчики получают возможность проектирования совместимых с чужими систем. Среди самых известных стандартов IEEE:

  • IEEE 1294 - USB,
  • IEEE 1394 - FireWire (i-Link),
  • IEEE 802 - семейство сетевых протоколов.

Последний знаком даже простым пользователям - вспомните, как называется версия Wi-Fi?

Как IEEE планирует регулировать ИИ


IEEE выпустила три новых стандарта, регулирующие этические вопросы работы систем искусственного интеллекта при обработке данных и взаимодействии с окружающим.

Документы относятся к разряду обязательных стандартов сообщества и были разработаны в рамках стандартизации работ по изучению этических аспектов ИИ и самоуправляемых автомобилей .

Содержимое стандартов объемно и содержит преимущественно информацию для разработчиков. В основе текстов - постановка этических проблем при обработке данных искусственным интеллектом и способы их решения.

В результате IEEE предложила готовую матрицу для программирования систем с учетом интересов и моральных норм человечества.

Что описывают стандарты IEEE о искусственном интеллекте?


Один из стандартов, IEEE P7004 , описывает правила сертификации и контроля тех организаций и систем, которые обрабатывают данные о детях и студентах. IEEE P7005 регулирует работу с данными о наемных работниках.

При его соблюдении ИИ и организации, работающие с данными, обязаны действовать, основываясь на безопасности и благополучии - даже с теми, что находятся в свободном доступе. Так же IEEE описала обязательные нормы, которым должны соответствовать доступ, сбор, хранение, использование, совместное использование и уничтожение данных о детях и учащихся.


Третий стандарт IEEE P7006 описывает для создание и контроль работы персонализированных ИИ-агентов - посредников в принятиях решений между несколькими компьютерами или системами. Методология разработки и технические элементы, заложенные в стандарте, должны исключить любые проблемы в работе интеллектуального аппарата.

Роботы не убьют человеков. IEEE всех спасли


Самое интересное кроется в стандарте IEEE P7006 . Он не просто описывает способы сертификации и задает законы робототехники - он процедуру, принцип работы искусственного интеллекта, связывающего человека и машину:

  • как должен работать ИИ-агент;
  • как должен предоставляться доступ к нему;
  • как должна вводиться информация;
  • как должно проходить обучение ИИ;
  • какие нормы этические нормы, правила и ценности должен заложить разработчик.

Первая версия стандарта если не введет 3 закона робототехники в обязательные для исполнения правила, то хотя бы минимизирует возможный вред. По мере развития технологий P70006 станет единым правилом, которое обеспечит защиту личности и безопасность всего человечества.

А если я не хочу соблюдать стандарт?

Стандарты IEEE как правило принимаются всем сообществом, и через некоторое время либо становятся универсальным документом для всех использующих технологию, либо превращаются в документ другой организации - при сохранении функций.


Соблюдение стандартов IEEE необходимо не только для получения бумаг от официальных структур. Многие принципы, заложенные в них, обеспечивают совместимость систем различных разработчиков. Кроме того, они работают в качестве сертификата соответствия, говоря о надежности продукта.

Одна из любимых тем у меня и самых любознательных учеников - это смысловая разница между схожими, а то и одинаковыми, с первого взгляда, словами и выражениями.

Очень часто иностранцы, уже довольно хорошо владея русским языком, "прокалываются" на использовании слов, которые кажутся типичными синонимами, но на самом деле имеют разный смысл, особенно в контексте. Один из самых распространенных случаев - использование слова "почему" вместо "зачем". Если вы совершаете такие ошибки, не переживайте, это более чем естественно, ведь вне контекста смысл у этих слов примерно одинаковый и несет ту же смысловую нагрузку, что и английское слово "why", которое используется и в смысле "почему" и в смысле "зачем", и даже в смысле "а что".

Почему ты сегодня такой грустный? - Why are you so sad today?
Зачем мы пришли в это кошмарное место? - Why we have come to this terrible place?

Ты замужем? - Are you married?
Нет. А что? - No. Why?

Поскольку студенты, которые только начинают знакомиться с русским языком, часто калькируют слово в контекст в случайном из его словарных значений, то выходит смысловая путаница. Представьте ситуацию. Я хочу отправить вам видеоурок, но не знаю, сможете ли вы его посмотреть, есть ли у вас для этого техническая возможность. Тогда я решаю задать вопрос, и происходит следующий диалог:


- Да. Почему?

- У вас есть видеоплеер на компьютере?
- Да. А почему?

В первом случае вы явно хотели сказать "Да. А что?", а во втором "Да. А зачем?"

Я спрашиваю у вас, установлен ли на вашем компьютере видеоплеер, и вам становится интересно, зачем он может понадобиться, но в связи с использованием слова "почему", смысл встречного вопроса искажается. Точнее, звучит вопрос совершенно неестественно. Слово "почему" в данном случае использовалось вместо слова "зачем", но по смыслу оно его не заменило.

Как же понять, в каком случае мы используем слово "зачем", а в каких "почему"? Давайте разбираться.

Перед тем, как задать вопрос, необходимо понять, что мы имеем в виду: цель или причину действия.

Вопрос "зачем" можно заменить на следующие вопросы: "с какой целью?", "для какой цели?", "для чего?"

Вопрос "почему" можно заменить на следующие вопросы: "что к этому привело?", "что вас заставило это сделать/так подумать?"

Стало быть, когда во время нашего короткого диалога вы хотите выяснить, зачем вам видеоплеер, ясно, что вы по сути спрашиваете: "для какой цели он мне нужен?", "для чего он мне нужен?"

Давайте попробуем использовать эти вопросы. Диалог может быть, например, таким:

- На вашем компьютере есть видеоплеер?
- Да. Почему вы спрашиваете?

В данном случае вопрос "почему" используется абсолютно правильно, потому что вопрос "почему вы спрашиваете?" по смыслу равняется вопросу "что вас заставило задать этот вопрос?" (последнее выражение звучит слишком официально и строго, но сейчас это не имеет значения, наша задача сейчас - почувствовать разницу)

Русский язык не возможен без исключений, поэтому бывают и такие случаи, когда слово "зачем" используется в значении "почему". Это редкость, и данная форма считается устаревшей, но ее можно встретить, например, в художественных текстах, в поэзии. Звучат такие фразы более возвышенно, нежели повседневная речь, более эмоционально. Например: "Зачем я не птица?.."

Говорящий не спрашивает, с какой целью он родился человеком, а с некоторой ноткой сожаления спрашивает, почему, по какой причине он не способен парить в воздухе и чувствовать себя более свободным.

Итак, подытожим сказанное короткой формулой.

Зачем = Цель
Почему = Причина