artyom_ferrier (artyom_ferrier) wrote,
artyom_ferrier
artyom_ferrier

Categories:

Война роботов как она есть

Из последних анекдотов: на высокотехнологической выставке CES-2019 в Штатах российский робот Промобот непонятно каким образом сбежал от хозяев и выкатил на проезжую часть, а Тесла на автопилоте его сбила насмерть (говорят, после падения восстановлению не подлежит, увы).

Это не фейк. Есть видео.

Ну что ж, с российским роботом всё понятно. Он уже сбегал с площадки в Пермы, тоже оказывался на проезжей части и устраивал пробку (поскольку тамошние водители — не автопилоты, они участливо относятся к судьбе роботов, да и своих фар и крыльев). Вот просто темперамент такой у этого робота — безбашенный.

Но возникает вопрос — какого хрена Тесла его не заметила, не объехала, а чиркнула и завалила?

Что ж, это эска, а не трёшка. Они и не оборудуются автопилотом, претендующим на полноценность. Просто — расширенный круиз-контроль, по сути. Способен на трассе видеть впереди идущую машину и соблюдать дистанцию, в общем-то и всё.

Но всё равно при появлении препятствия по курсу он должен был, по идее, остановиться. Как должен был это сделать и такой же круиз-контроль т на ксюшке, которая вместо этого на полном ходу вошла в бетонный разделительный блок и угробила своего заснувшего, вероятно, водителя.

И можно было бы сказать, что на эсках и ксюшках автопилот очень ограниченный, куцый, а на трёшке будет полностью функциональный и надёжный, всё видит, всё может, всё умеет — но на самом деле это крайне сомнительно.

Вообще говоря, вот при всей любви к прогрессу и, особенно, к теслам (да у треть состояния в TSLA вложена) автопилот, ИИ — выглядит самой слабой компонентой проекта. Как по мне, теслы — классные машинки и безо всяких автопилотов, а о них же — лучше и не мечтать. Если честно, думаю, полностью автономные автопилоты на дорогах общего пользования скоро будут запрещены, после ряда провальных экспериментов.

Да, автопилот, чётко следуя правилам, особенно — по скоростному режиму, даёт в среднем меньшую аварийность, чем человеческий водитель. Но — более тяжкую. Ибо одно дело не рассчитать рывок в пробке и чуток толкнуть впереди стоящего в бампер, а другое — размазать по асфальту пешика, не снижая скорости, просто потому, что программа не способна, в действительности, «задумываться» о характере препятствия, не способна в сколько-нибудь приемлемой мере его идентифицировать, а потому её придётся либо настраивать так, чтобы она замирала от вида любого пластикового пакета, спорхнувшего с моста, либо так, что она запросто может убить прохожего там, где этого не сделает самый безответственный удолбанный мажор за рулём.

Для начала, компьютер просто не умеет «видеть», как человек. В некоторых отношениях — он видит и гораздо лучше (и по разрешению, и по диапазонам), но вот стереоскопическая перспектива — пока что неразрешимая для него задача. Он не может оценивать рельеф и расстояние по визуальному образу.

Это проблема, с которой бьются военные лет так пятьдесят — и, в общем-то, без успеха.

То есть, в некоторых случаях ИИ очень полезен для распознавания объектов. Скажем, при оценке входящего пакета Града. Там горячие чушки на фоне неба, они очень хорошо выделяются, очень однозначные, очень примитивные цели. Пара миллисекунд наблюдения — и компьютер просчитывает их траектории, выставляет точки встречи, передаёт Милленеуму параметры стрельбы по углам и времени подрыва снаряда (ну, речь не про РА, конечно — это пока только у нас в полной мере есть, да амеры и израильтяне на подходе). Ни один человек с такой задачей в такое время, естественно, не справится. Тут — решает скорость вычислений и обработки информации (но сама по себе информация — очень простая и однородная).

А вот распознавание объектов на местности, по картинке, - это задача на десятки порядков более сложная (не преувеличение: именно на десятки). И компьютеру бесполезно объяснять, что если что-то выглядит, как резиновая утка, но при этом пыхтит, как ОБТ — то, скорее, это ОБТ, а не утка.

Он не понимает такого языка. Ему надо «пальцем показать». Ему нужны какие-то сочетания параметров областей изображения, данные не в ощущениях, а в переменных, которые он мог бы «опознать». И какие хитроумные алгоритмы такого распознавания ни составляй — даже небольшое отступление от предписанного рискует проскочить мимо внимания.

Ну вот поэтому автопилоты сплошь и рядом в упор не видят таких препятствий, которые и пьяная подслеповатая блондинка за рулём заметит. Что вот это рядом, оно большое, его лучше объехать или остановиться.

Автопилот — этого не понимает по картинке, что оно рядом. Для него это просто элемент ландшафта, и реакция на него целиком определяется теми алгоритмами, какие были прописаны, и практика показывает, что всего не пропишешь.

При этом использовать не только двухмерную картинку, полученную пассивными оптическими датчиками, но и просканированный лидаром или РЛС рельеф — в гражданских массовых автопилотах не представляется возможным.

Да, в тестах такие активные сенсоры показывают высокую эффективность. Компьютер получает возможность точно знать, где что вокруг находится, какую конфигурацию имеют препятствия, какое расстояние до них, как они себя ведут.

Но при массовом использовании — лидары и РЛС будут просто слепить друг друга. Там-то комп точно с ума сойдёт, пытаясь понять, где его собственнный отражённый сигнал, а где чужие первичные излучения. Некоторые оптимистично смотрят на решение этой проблемы, уповая на грядущее могущество ИИ, но вот пока что даже десяток машин на поле боя — друг другу очень сильно мешают, и это притом, что они обычно не едут навстречу.

Вообще говоря, вот много доводится слышать восторженных (иногда — чуть ли не оргиастических) высказываний о дух захватывающих перспективах ИИ, но исходят сии дифирамбы обычно от людей, которые не имеют вообще никакого опыта программирования, даже любительского. Людей, которые буквально считают, что если в какой-то прикладной программке есть ползунок «более осторожная стратегия — более агрессивная стратегия» - то, значит, компьютер научился понимать слова «осторожный» и «агрессивный».

А если компьютер наконец сподобился просчитать много-много партий в шахматы или в го и отфиксировать силу тех или иных промежуточных позиций — то, значит, он вышел на новый уровень самообучаемости.

Нет. В действительности, в том, что касается именно «искусственного интеллекта», никаких принципиальных подвижек нет со времён Тьюринга.

Просто — радикально выросли возможности получения, хранения и обработки данных. Вот это — да, выросло в миллиарды раз. И это позволяет более эффективно, чем человек, решать очень(!) узкоспециализированные задачи, которые в принципе можно описать через желательную совокупность ключевых переменных. Типа, в каком положении ты хочешь, чтобы оказался белый король. Под шахом — и без хода.

Ну и шахматы — это, конечно, очень достойная игра, полезная для юношества, и всё такое, поэтому, не в обиду — но это очень примитивная игра. В том смысле, что её задачи и правила можно очень легко описать понятным для «арифмометра» языком. И когда это навороченный современный арифмометр — да, он может, проигрывая и анализируя партии, сохранять в памяти некие «анкерные» позиции, чтобы не делать полный перерасчёт всякий новый раз (хотя в целом ему пофиг, чисто по-нечеловечески).

Но как только дело касается некой задачи чуточку посложнее, чем поставить мат королю, действуя в рамках очень примитивной, очень чётко очерченной игровой вселенной (в миллиарды раз более примитивной, чем реальность жизненная) — компьютер просто в принципе не понимает, где он может налажать.

Вот, казалось бы, даётся ему простая задача, убить Сару Коннор. Сама она описывается тривиально. Что-нибудь типа Until Sarah_Connor_Dead=False Goto Terminate_Motherfucker. На языке программирования высокого уровня — а так-то всё это в двоичном коде будет.

Что делает машина? Берёт телефонный справочник и начинает средь бела дня валить всех Сар Коннор оттуда, средь бела дня, у них на дому и без глушителя.

Да, это Лос-Анжелес начала восьмидесятых. Довольно криминальный город. Но всё равно убийств там — одно-два в сутки. И это всё больше поножовщина торчков и пушеров. А вот чтобы такой дерзкий огнестрел в благопристойных нейборхудах — это не может не привлечь внимания полиции.

Когда же выясняется, что жертвы — тёзки, то, естественно, делает оповещение, пытаются найти выживших с таким же именем. Дальше — их могут спрятать и под другим именем, и в другом городе, и операцию по смене пола сделать.

Самый тупой человеческий киллер — имел бы в виду такие соображения. Что своей идиотской стрельбой — он рискует безнадёжно провалить миссию. А роботу — просто пофиг. Он не думает об успехе миссии, в действительности. Он просто выполняет те инструкции, которые в него вложили — не более и не менее того.

Ну вот водительский автопилот — примерно то же. Как ни колдуй над ним, какие ни прописывай ему «самообучающиеся» алгоритмы — он по-любому будет искусственным идиотом, который гарантированно сдуется в любой ситуации, которая не описывается простенькими математическими формулами с фиксированным набором переменных.

И тут некоторые лунатики рассуждают: «А вот как заставить автопилот делать этический выбор, типа, кого из пешиков давить при аварийной ситуации?» То ли старушку, которая заслуженный член социума, но уже отжила своё, то ли трудного подростка, который сейчас на учёте в полиции, но потом, возможно, исправится, то ли въебаться в стену и угробить водителя, сказав таким образом «спасибо» за приобретение машины с этим автопилотом.

Ей-богу, некоторым людям всё-таки полезно принимать галоперидол по утрам.

Если говорить об этическом выборе автопилота (вернее, того, кто его настраивает) — то разумно будет сделать так, чтобы, при идентификации пешиков на проезжей части или вблизи неё, скорость автоматически сбрасывалась так, чтобы при любом поведении препятствия можно было гарантированно избежать столкновения.

Как это примерно и делает мало-мальски вменяемый человеческий водитель, когда видит на обочине пешехода, который, возможно, сейчас попробует перебежать. На всякий случай — сбрасывает газ.

С автопилотом, правда, одна проблема. Пока что — он вот, как выясняется, в упор не видит на краю проезжей части жестянку в метр ростом, об которую вполне можно разбить фару или поцарапать крыло. Но её там не должно быть, не положено, ему так «сказали» - а значит, и хрен с ней. Её не существует.

Естественно, когда шаловливые дети повадятся так же ставить урны, подстерегая беспилотные машины — те будут без малейших раздумий шкрябаться бортами.

А когда им пришлют гигабайтный апдейт с процедурой выявления урны, стоящей в неположенном месте — дети ещё что-нибудь придумают.

При этом, я не хочу сказать, будто автопилот на машине — вовсе бесполезен. Нет, как помощник человеческого водителя, предупреждающий об опасности, или как «расширенный круиз-контроль» (но при возможности в любой момент перехватить управление руками) — это неплохо. Но — не более того, не стоит питать дурацкие иллюзии.

Tags: машинки, технологии
Subscribe

  • Ваксеры, антиваксеры и перспективы

    По-прежнему не хочу влезать в дискуссию прививочников и антипрививочников, ибо не хочется ссориться с достойными людьми, кои водятся в обоих…

  • О достойной смерти

    Да, я написал давеча пост о том, что предпочёл бы, в случае школьного шутинга, видеть своих детей вооружёнными и гордыми — и вспомнил, что…

  • Ксенофобия и логика

    Не раз доводилось слышать примерно следующее: «Вот есть люди, которые говорят: «Я, вообще-то, не антисемит, у меня даже есть…

  • Post a new comment

    Error

    Anonymous comments are disabled in this journal

    default userpic

    Your reply will be screened

    Your IP address will be recorded 

  • 58 comments
Previous
← Ctrl ← Alt
Next
Ctrl → Alt →
Previous
← Ctrl ← Alt
Next
Ctrl → Alt →

  • Ваксеры, антиваксеры и перспективы

    По-прежнему не хочу влезать в дискуссию прививочников и антипрививочников, ибо не хочется ссориться с достойными людьми, кои водятся в обоих…

  • О достойной смерти

    Да, я написал давеча пост о том, что предпочёл бы, в случае школьного шутинга, видеть своих детей вооружёнными и гордыми — и вспомнил, что…

  • Ксенофобия и логика

    Не раз доводилось слышать примерно следующее: «Вот есть люди, которые говорят: «Я, вообще-то, не антисемит, у меня даже есть…