Category: технологии

Category was added automatically. Read all entries about "технологии".

Консервативность

Человек — существо крайне консервативное. Сопротивляемость человека всему по-настоящему новому такова, что даже борьба за самые, казалось бы, прогрессивные нормы социальной справедливости всё равно напоминает обычные погромы, известные уже сотни лет.

Вот взять, к примеру, 18 марта 2018 года. В этот день около 10 часов вечера в городе Темпи, штат Аризона, США, беспилотный автомобиль компании Uber наехал на пешехода с велосипедом. 49-летняя Элейн Хёзберг стала первым в мире человеком, потерявшим жизнь под колесами робота, самостоятельно принимающего решения. Первый закон робототехники, сформулированный Айзеком Азимовым еще 78 лет назад, оказался нарушен. Робот причинил вред человеку.

И сразу же возник закономерный вопрос: а кому отвечать? Изначально полиция была не склонна обвинять вообще кого бы то ни было. Женщина с велосипедом неожиданно появилась на дороге, выйдя из тени на освещенную проезжую часть в не предназначенном для этого месте.

Но человек крайне консервативен. И если кто-то погиб под колесами средства повышенной опасности — значит, кто-то должен ответить.

И вот, наконец, предъявлено обвинение. Вы не поверите, кому — человеку, сидевшему в беспилотном автомобиле. И не управлявшему им. Прокуратура считает, что этот человек виновен, потому что за несколько секунд до столкновения смотрел в экран своего телефона. И это — преступная невнимательность.

Но погодите. А зачем вообще нужен беспилотный автомобиль, если его пассажир должен постоянно следить за дорогой? Ну хорошо, допустим, это был экспериментальный автомобиль. И его пассажир назывался оператором именно потому, что он должен был следить за дорогой. Но в деле нет ничего о том, мог ли этот оператор предотвратить столкновение, даже если бы управлял автомобилем. Потому что, напомню, погибшая неожиданно появилась на дороге в неположенном месте.

Понимаете? Оператора автомобиля-робота сейчас будут судить не за то, что он убил человека. А за то, что он смотрел в телефон в то время, когда робот убивал человека. А создатель робота, который принял неверное и трагическое решение, никаких обвинений не предъявляется.

И, поверьте, я это не к тому, что знаю, кто именно виноват. Я это к тому, что человек крайне консервативен.

И вряд ли сядет в беспилотный автомобиль, если существует ненулевая вероятность быть обвиненным в аварии, которую этот автомобиль совершит.

Originally published at <KONONENKO.ME/>. You can comment here or there.

Этические принципы

Люди искусства редко разговаривают с публикой от своего имени. Обычно рукой настоящего художника движет что-то другое. Кто-то считает, что провидение. Кто-то — что сам Господь. Потому что никак иначе не объяснить точные предсказания будущих событий, изобретений и даже постановлений правительства.

Еще в 1942 году родившийся в советской России американский писатель Айзек Азимов сформулировал три закона робототехники — отрасли, которой тогда, 78 лет назад, вообще не существовало. Первый в мире настоящий компьютер заработал только спустя четыре года, что уж там про роботов говорить!

Тем не менее, законы, сформулированные до появления всякой робототехники, оказались настолько удачными, что до сих пор кочуют не только по техническим книгам, но даже и по официальным документам самого высокого уровня. Да вот только что правительство России, родины Айзека Азимова, опубликовало «Концепцию развития регулирования отношений в сфере технологий искусственного интеллекта и робототехники до 2024 года». И там на шестой странице упоминаются базовые этические нормы для развития этих самых робототехники и искусственного интеллекта. Которые чуть менее, чем полностью повторяют законы Айзека Азимова. Хотя и не совсем.

Например, первый закон Азимова гласит, что робот не должен причинять вред человеку и бездействовать, когда человеку причиняется вред. В базовых этических нормах правительства сказано только про причинение вреда человеку по инициативе робота или искусственного интеллекта. То есть, бездействовать можно. Второй закон Азимова гласит, что робот должен подчиняться человеку, кроме случаев, противоречащих первому закону. В постановлении правительства говорится только о подчинении робота человеку. О противоречии с первым законом не говорится. А третьего закона Азимова — о том, что робот должен заботиться о своей безопасности — в постановлении правительства вообще нет.

То есть, базовые этические нормы за прошедшие почти 80 лет претерпели таки некоторую эволюцию. Обусловленную, разумеется, возможным военным применением роботов. О которой Айзек Азимов, в силу своего наивного интеллигентского мировоззрения, думать не очень хотел.

Однако же сам факт использования этих наивных интеллигентских законов как основы для этических норм постановления российского правительства — это уже в большой степени добродетель.

Поскольку, как мы знаем из кинофильмов про Терминатора и повседневной практики с беспилотниками, вторая родина Айзека Азимова никакими этическими нормами в области робототехники вообще не заморачивается.

Originally published at <KONONENKO.ME/>. You can comment here or there.

Баба ягодка опять

Как известно, монополизм — это плохо. Но монополизм бывает разный. Бывает, когда компания, занявшее лидирующее положение на рынке, выдавливает возможных конкурентов и выкручивает руки партнерам. А бывает так, что компания создала продукт, который вроде бы и можно было бы повторить — но не получается. Ни у кого. Десятилетиями. Таков редактор изображений Adobe Photoshop. Индустриальный стандарт, к которому до сих пор не приблизилась ни одна из многочисленных программ-конкурентов.

То есть, чуть менее, чем все изображения в интернете редактируются именно в Фотошопе. И существует даже понятие — фотошопить. А возможности фотошопинга практически безграничны. Что и позволяет умельцам создавать изображения, способные ввести в заблуждение самого искушенного эксперта. А изображения, способные ввести в заблуждение, в современном мире незываются фейками. И с фейками борются с помощью сложных нейросетей, целых экспертных комиссий и даже с помощью специальных слушаний в сенате Соединенных Штатов Америки.

Как вдруг компания Adobe возьми и соверши ход конем. Отныне Фотошоп будет записывать все операции по изменению изображения… в само изображение. С помощью технологии стеганографии — это такой способ кодирования информации с помощью изображений. А также будет выпущен инструмент, позволяющий точно определить — редактировалась ли картинка в фотошопе и как именно.

Вот и настал черный день.

Плачь, бьюти-блогер! А особенно — бьюти-блокерка. Крепись, бильд-редактор глянцевого журнала! Отныне больше не вытянуть ноги. Не увеличить в одном месте и не приуменьшить в другом. Не замазать дефекты и не добавить блеска я глазах. Ну то есть всё это сделать можно, но любой въедливый подписчик в инстаграме немедленно сможет проверить, настоящее это изображение или нет.

А что это значит? А это означает неминуемый крах всей этой индустрии иллюзий, продающей людям средства для достижения недостижимого. Что, впрочем, в мире побеждающего бодипозитива и неприглядной естественности, наверное, не такая уж и трагедия. Ну, будут зарабатывать на неотфотошопленном. И средства придумают специальные — чтобы, не дай бог, не приукрашивали.

Ну а тем, кому все таки хочется остаться жить в старом, гламурном мире, я рискну дать традиционный совет: не обновляйтесь.

В старых версиях Фотошопа нет никаких таких инструментов.

И ничего не помечается.

Originally published at <KONONENKO.ME/>. You can comment here or there.

Борьба продолжается

Три года назад словарь английского языка Collins назвал словом года выражение fake news. И совершенно непонятно, почему всего три года назад. Ибо человечество борется с этими самыми фейковыми новостями на протяжении всей своей истории. Просто раньше это называлось слухами. И за распространение слухов в средние века довольно сурово наказывали. А во времена более отдаленные сурово наказывали даже за сообщение плохих новостей.

Тем не менее, в последние годы на борьбу с фейковыми новостями мобилизовали мощности крупнейших гигантов IT-индустрии. Facebook с помощью искусственного интеллекта обещал помечать сомнительные новости. Google обещал убирать их из поисковой выдачи. Microsoft совсем недавно встроил подобную технологию в свой мобильный браузер Edge.

И вот теперь мессенджер WhatsApp представил собственное решение. На массово распространяющихся сообщениях появится кнопочка, нажав на которую вы сможете узнать, подтверждается это сообщение официальными источниками и крупными СМИ или нет.

И, разумеется, всё это тоже не будет работать. И дело тут вовсе не в технологиях. А в том, что все, кто пытается бороться с распространением фейков исходят из презумпции адекватности пользователя. Но ведь люди на протяжении всей истории человечества распространяют слухи не потому, что не знают об их природе. А именно потому, что не верят всему, что официально. Официальные объяснения скучные. Конспирология — всегда интересна и веселА. И поэтому когда типичный пользователь WhatsApp, получив срочное и очень важное сообщение, нажмет на новую кнопочку и увидит там, что ничего такого в официальных новостях нет — это для него будет как раз доказательством того, что в сообщении правда. Потому что власти, как известно, скрывают. И тогда этот человек, удовлетворенный доказательством правоты сообщения, отправит его по всему своему контакт-листу.

Собственно, умные люди, сидящие в IT-корпорациях это, видимо, понимают. Иначе не саботировали бы так откровенно требования не столь умных сенаторов и конгрессменов усилить борьбу.

Но главное — не рассказывать об этом саботаже сенаторам и конгрессменам.

Будем делать вид, что борьба продолжается.

Originally published at <KONONENKO.ME/>. You can comment here or there.

Эмуляция пустоты

Слово «виртуальность», еще тридцать лет назад известное лишь специалистам-компьютерщикам, сегодня плотно вошло в повседневный обиход всего человечества. А вот термин «эмуляция» так и остался внутри профессии. «Эмулировать» — это значит притворяться чем-то другим. Причем притворяться настолько хорошо, что использующий не должен ни о чем догадаться. Будь этот использующий хоть программой, а хоть человеком. Виртуальный диск, например, эмулирует настоящий. И для использующего такой диск никакой разницы нет.

Эмулировать можно всё, что угодно. Была бы фантазия. Вот, скажем, немецкий художник Зимон Векерт придумал, как эмулировать, внимание, автомобильную пробку. Причем способом невероятно изящным. Наш герой просто взял обычную садовую тачку и загрузил ее сотней смартфонов с запущенным навигатором. А что должен подумать искусственный интеллект навигационного сервиса, когда он видит множество запущенных приложений, которые находятся в одном месте и никуда не движутся? Совершенно верно — искусственный интеллект просто обязан решить, что в этом месте образовалась мертвая пробка. Да у него просто нет других вариантов. А следующее, что сделает такой искусственный интеллект — он начнет прокладывать маршруты в объезд этой самой виртуальной пробки. Которой на самом деле и нет.

Согласитесь, что идея мощнейшая. Фантазия сразу же разворачивается и рисует картины. Вроде той, что я на днях видел в YouTube. Человек подъезжает к парковке. Все места заняты. На одном из мест стоит машина такси. Человек достает из кармана смартфон, запускает приложение агрегатора и вызывает такси до аэропорта. А какой же таксист откажется ехать в аэропорт? Такси немедленно заводится и выезжает с парковки. Находчивый человек встает на его место и тут же отменяет вызов такси.

Конечно, тут возникают вопросы этического характера — но ведь и в случае с тачкой смартфонов тоже имеют место обман, фейк и манипуляция. Причем на нынешнем этапе исторического развития никак не урегулированные ни одним национальным законодательством.

Впрочем, стоимость сотни смартфонов сама по себе весомый ограничивающий фактор. До тех пор, пока не художник, а программист не придумает, как запустить сотню навигаторов на одном устройстве.

И вот тогда у нас с вами может начаться очень веселая жизнь.

Originally published at <KONONENKO.ME/>. You can comment here or there.

Прилетит Терминатор

В последнем фильме про Терминатора, спродюсированном самим Джеймсом Кэмероном, использована очень простая и очень эффектная драматургическая идея: несмотря на то, что Сара Коннор предотвратила наступление того будущего, из которого к ней прилетел Терминатор, будущее всё равно наступило. Немного не такое в деталях, с другими героями сопротивления, но в общем и целом такое же — машины победили. И из этого будущего все равно прилетит Терминатор. Предопределенность — вот главная идея картины. И эта предопределенность зависит вовсе не от роботов. А зависит она от людей, которые создают этих роботов.

Вот, скажем, гарвардский профессор по имени Латания Суини искала о себе что-нибудь в Гугле. И в первых же строках поисковой выдачи Гугл предположил, что профессор была арестована. Изучив вопрос, профессор выяснила, что компьютерный разум предполагает возможный арест людей с именами, более распространенными среди афроамериканцев. К которым и относится имя Латания. А, скажем, по запросу «ученый» или «бабушка» искусственный интеллект Гугла выдает фотографии преимущественно белых людей.

«Значит», — делает вывод профессор Суини, — «Искусственный интеллект способен закреплять или даже усиливать некоторые из вредных предрассудков нашего общества.

И тут бы, конечно, согласиться с профессором — ну действительно, ведь это же безобразие: подозревать в человеке преступника только потому, что у него имя, распространенное среди темнокожих. Или полагать, что ученый всегда только белый.

Вот только причем здесь предрассудки? Искусственный разум не оперирует предрассудками. Он оперирует статистикой. И если преступников среди афроамериканцев действительно больше, а ученых, наоборот, больше среди белых — то это никакие не предрассудки. Это постылая реальность, из которой и исходят алгоритмы компьютера. И именно поэтому Терминатор все равно прилетит — потому что люди хотят, чтобы он прилетел.

Да вот только что журнал Popular Mechanics опубликовал статью об использовании искусственного интеллекта в случае, цитирую: «агрессии России против союзника по НАТО». Там рассказывается про то, как компьютер будет анализировать приготовления агрессора и на основе этого предсказывать его, то есть — наши, дальнейшие действия.

Даже не вдаваясь в рассуждения о том, что предсказать действия русских, тем более на поле боя — это утопия, замечу, что в данном конкретном случае авторы журнала свидетельствуют о том, что они и американские военные ХОТЯТ, чтобы подобная агрессия состоялась. И чтобы прилетел Терминатор.

И Терминатор к ним, разумеется, прилетит. Правда, не оттуда, откуда думает условная Сара Коннор. То есть — не от нас. А из совершенно другого будущего.

Но если они так хотят — то он обязательно прилетит.

И искусственный интеллект тут ни причем.

Originally published at <KONONENKO.ME/>. You can comment here or there.

Future For Future

До выхода в 1993 году кинокарины «День сурка», о существовании странного ритуала гадания на весну знали только те, кто его практиковал. Фильм же сделал знаменитым на весь мир не только самого сурка Фила, но и забытый богом городок Панксатони с населением меньше шести тысяч человек. В Панксатони устремились туристы и городские власти довольно скоро зарегистрировали все права на использование образа сурка Фила. С тех пор город, последнее промышленное предприятие в котором закрылось еще в середине прошлого века, живет за счет грызуна-предсказателя.

Подобным же путем решила пойти знаменитая экологическая активистка Грета Тунберг. Которая объявила в своем инстаграме, что собирается зарегистрировать свое имя в качестве товарного знака. «Мое имя и движение #FridaysForFuture постоянно используются в коммерческих целях без какого-либо согласия, — написала шведская девочка, — Это происходит, например, в маркетинге, продаже продуктов и сборе денег людьми от моего имени и от имени движения».

Ну что же, решение Греты разумно. Как говорится: сначала ты работаешь на имя, а потом имя работает на тебя. Проблема только в том, что в отличие от фильма «День сурка», время, в котором мы живем, не повторяется, а идет дальше. И если сейчас Грета Тунберг — это всем известная шведская девочка, то через десять лет она уже не будет никакой девочкой. И с образом возникнет проблема.

Впрочем, и эта проблема решаема. Причем даже не так, как с сурком Филом, который, по утверждению жителей Панксатони, за счет специального эликсира живет уже больше 130 лет. Мы подмигиваем, конечно, но всё понимаем. Но вот теперь международная Организация по борьбе за права животных PETA предлагает перестать мучать сурка, доставая его из норы каждое 2 февраля. А заодно и решить проблему с его возрастом. Причем решить очень просто: заменить животное роботом. Который бы предсказывал погоду с помощью искусственного интеллекта, пользуясь большим объемом метеоданных. Кстати, и внимание туристов к обновленному Дню сурка наверняка возрастет.

Не знаю, как вы, а я снимаю шляпу перед изяществом такого решения. Ведь представьте себе, как удобно заменить роботом Грету Тунберг! Робот не оставляет углеродного следа. Робот не взрослеет и всегда будет оставаться всё той же девочкой с косичками, к которой мы все так привыкли. Робот не устает и сможет посещать значительно больше экологических мероприятий. И внимания робот будет привлекать значительно больше.

А самое главное: его можно выключить.

Originally published at <KONONENKO.ME/>. You can comment here or there.

Мир тайн

Тайны сопровождают человечество на протяжении всей истории его существования. Тайны мадридского двора, государственные и военные тайны, тайны коммерческие. Тайны частной жизни, тайны врачебные и тайны следствия.

И вот теперь придумали новую тайну — педагогическую. Далее цитирую прессу: «Педагогическая тайна может стать аналогична врачебной и заключаться в запрете для воспитателей и учителей разглашать сведения о диагнозе или особенностях развития ребенка без согласия родителей. Такая идея особенно актуальна на фоне развития инклюзивного образования — обучения вне зависимости от физических и умственных способностей ребенка».

Согласитесь — в высшей степени логично звучит. И, в то же время, в высшей степени абсурдно. Потому что, как я уже неоднократно рассказывал вам раньше, в современном, информационного прозрачном мире никакой тайны больше не существует.

Причем, что интересно: чем более информационно прозрачным становится мир, тем больше человечество начинает беспокоиться о секретах и тайнах. Придумали какие-то персональные данные, которые надо защищать. Хотя раньше, например, любой человек мог позвонить в справочное бюро и узнать персональные данные любого другого человека. Ну или просто прочитать их в телефонном справочнике, который лежал в каждой телефонной будке. Сведения о заболевании односельчанина не могли быть никакой тайной просто потому, что от этого зависело здоровье других односельчан. Не говоря уже о родительских собраниях в школах, где все педагогические тайны вываливались непосредственно на головы всех собравшихся родителей.

Был ли мир от этого хуже? Да нет, не был он хуже. Многим теперь кажется, что мир был, наоборот, лучше. Причем некоторые довольно авторитетные люди прямо призывают хоть каким-то образом вернуться в тот, более лучший мир. Глава Facebook Марк Цукерберг говорит о том, что государства должны контролировать интернет. Генеральный директор Google Сундар Пичай говорит, что необходимо регулировать искусственный интеллект. А потенциальный кандидат в президенты США Джо Байден заявил, что, цитирую: «разработчики современных компьютерных технологий не должны считать, что они могут делать все, что захотят».

Но ведь возвращение в прекрасный мир прошлого подразумевает, что тайн должно стать меньше. Потому что тогда их было именно меньше. Готовы ли к этому призывающие притормозить?

Что-то подсказывает мне, что не очень.

Originally published at <KONONENKO.ME/>. You can comment here or there.

Мировая гармония

Венедикт Васильевич Ерофеев писал, что самое бессильное и позорное время в жизни нашего с вами народа – время от рассвета до открытия магазинов. Но есть время куда как более тягостных раздумий, чем даже это — это время выбора новогодних подарков. Отчаявшиеся в своей растерянности граждане мечутся по центрам городов в личных автомобилях, окрашивая дороги в цвета, близкие к черному. Общественный транспорт с трудом справляется с пассажиропотоком. Тоскуют продавцы повседневного и выбиваются из сил работники праздничной упаковки. Богатство выбора, в полном соответствии с диалектическими законами приводит к абсолютной невозможности выбора. Что подарить тем, у кого всё уже есть? Вот главный вопрос в мире тотального потребления.

И ответ на этот вопрос, как и на все остальные вопросы, на которые человеческий интеллект не способен ответить, дает искусственный интеллект. Популярная русская социальная сеть объявила о создании сервиса по автоматической генерации и рассылке новогодних открыток. Нейросеть анализирует ваших друзей, определяет самых близких из них и на основе ваших взаимодействий составляет именно такую открытку, какую вашему другу было бы наиболее приятно получить.

И вот когда мы с вами читаем подобную новости, нас осеняет: конечно! Пусть искусственный интеллект решает, что именно и кому мы должны подарить. Причем исходя из бюджета.

Минимальное изучение вопроса дает ответ, что решения уже существуют. Существует сервис, который способен по аккаунту в социальной сети определить, чего именно владелец аккаунта хотел бы получить в качестве подарка. При этом любезно предлагается каталог из более чем ста тысяч реальных товаров, среди которых отмечены те, которые бы подошли.

Другой сервис предлагает варианты подарков на основе простого анкетирования, но зато обобщает результаты всех отвечающих на вопросы и обучается. И каждое следующее его предложение более точное и интересное, чем предыдущее.

Хотя и этого, признаемся, мало. Ведь даже если человек будет знать, что именно ему подарить тому или иному родственнику или знакомому — он все равно поедет в центр города, чтобы это купить. Нет, идеальный сервис должен быть устроен не так. Идеальный сервис должен не только подбирать подарки, но и покупать их, а также доставлять по нужному адресу. А нам с вами останется только в определенный момент нажать на нужную кнопку. Ну и заплатить, конечно.

А еще лучше — привязать кнопку к счету в банке. Нажал один раз — и всё. А чтобы и нажимать не надо было, можно просто назначить дату: такого числа взять и подарить всем подарки. Впрочем, искусственный интеллект и без нас знает, когда именно нужно эти подарки дарить.

А потом он научится ставить елку и наряжать ее. Или просто создавать ее голограмму.

Ну а потом мы с вами станем вообще не нужны. А если мы с вами станем вообще не нужны — то и подарки никому не надо будет дарить.

И в мире наступит гармония.

И рассосутся, наконец, предновогодние пробки.

Originally published at <KONONENKO.ME/>. You can comment here or there.

Переквалифицироваться в управдомы

Специалисты по рынку труда утверждают, что роботы и искусственный интеллект в первую очередь лишат работы представителей массовых и не очень сложных профессий. Кассиров, продавцов, водителей, страховых агентов, официантов. И предлагают представителям этих профессий уже сейчас задуматься о смене рода занятий на что-нибудь более востребованное и интеллектуальное.

Между тем, реальность, как это обычно бывает, расставляет совершенно другие акценты. Искусственный интеллект пишет новости, ставит диагнозы, принимает бизнес-решения. Да что там, вы пойдите поищите сейчас живого трейдера на любой бирже.

Искусственный интеллект рисует картины, пишет литературные произведения, сочиняет сценарии. Причем это не просто научные эксперименты, а постылая реальность, данная нам в ощущения. Картина, написанная искусственным интеллектом, была продана на аукционе Christie’s почти за полмиллиона долларов. А роман, написанный программой, попал в финал японского литературного конкурса.

Участвует ли искусственный интеллект в написании сценариев современных блокбастеров мы достоверно не знаем, но, судя по самим этим блокбастерам, конечно, участвует. А компания Facebook на днях объявила о создании алгоритма, создающего персонажей и миры для ролевых компьютерных игр.

Да что там все эти далекие от высоких искусств прикладные ремёсла. Один из лучших в мире игроков в ГО, кореец Ли Седоль только что объявил об уходе из профессионального спорта, потому что человек больше не может победить в игре искусственный интеллект.

ГО — одна их самых сложных игр в мире, гораздо сложнее шахмат. И если шахматы давно сдались компьютерным алгоритмам, о чем можно судить хотя бы по тому, что никто из нас с вами не знает имя текущего чемпиона мира, то ГО сопротивлялась еще 20 лет. И теперь человек с одной из самых уникальных и интеллектуальных в мире квалификаций тоже должен переквалифицироваться в управдомы. Потому что управдомы, продавцы и водители, не говоря уже об охранниках, до сих пор остаются при своих профессиях.

И только посмеиваются над всем этим искусственным интеллектом и роботами.

Originally published at <KONONENKO.ME/>. You can comment here or there.