Конец эпохи Tesla? Наука вынесла приговор

Tesla переживает, мягко говоря, не лучшие времена. В Великобритании, например, компании пришлось вдвое снизить цены на лизинг в отчаянной попытке привлечь хоть каких-то клиентов. Но даже такие щедрые скидки не помогают — покупать их машины никто не спешит. Похоже, британцы не горят желанием ассоциироваться с автомобилями, чей создатель заигрывает с сомнительными идеологиями. Однако проблемы Tesla гораздо глубже, чем просто падающие продажи. Единственная причина, по которой компания все еще сохраняет свою заоблачную стоимость, — это вера инвесторов в то, что она вот-вот совершит прорыв в области полной автоматизации.

Эта вера серьезно пошатнулась после провального запуска сервиса роботакси, который лишь доказал, что хваленая система Full Self-Driving (FSD) работает, откровенно говоря, из рук вон плохо. Но скоро этот мыльный пузырь может лопнуть окончательно. И виной тому будет гигант в мире цифровой этики, профессор Лучано Флориди, который, похоже, только что доказал, что система автопилота Tesla не заработает как надо. Никогда.

Два пути к автопилоту: осторожность против авантюры

Чтобы понять суть проблемы, нужно разобраться, чем подход Tesla к созданию автопилота кардинально отличается от методов конкурентов.

Почти все разработчики автономных автомобилей, как, например, Waymo (проект Google), строят свои системы по схожему принципу. Их машины буквально усеяны датчиками: камерами, ультразвуковыми сенсорами, радарами и лидарами, которые создают подробную картину окружающего мира. При этом за управление отвечают сразу несколько параллельных систем. К примеру, система автоматического экстренного торможения работает независимо от основного искусственного интеллекта и полагается на данные радаров или лидаров, имея возможность в любой момент перехватить управление.

Более того, в таких автомобилях могут одновременно работать несколько систем ИИ: одна анализирует изображение с камер, другая — данные с лидара. Но и это еще не все. Искусственный интеллект не просто «смотрит» по сторонам — он постоянно сверяется с высокоточными 3D-картами местности. Это позволяет ему точно знать, где он находится и какие маневры предстоят впереди. Такой подход значительно снижает нагрузку на ИИ, которому не нужно с нуля распознавать дорогу и принимать решения. Все эти системы работают сообща, подстраховывая друг друга и минимизируя риски от сбоев датчиков или «галлюцинаций» искусственного интеллекта. Такая многоуровневая система с дублирующими контурами безопасности не только делает автомобиль надежным, но и удешевляет разработку, позволяя быстрее создать действительно работающий автопилот.

Tesla же отбросила саму идею резервирования и подстраховки. Их подход можно назвать «голым» и предельно рискованным.

Автомобили Tesla полагаются лишь на девять камер и систему компьютерного зрения на базе ИИ для восприятия мира. И всё. Никакой отдельной системы экстренного торможения. Никаких лидаров или радаров, которые могли бы прийти на помощь, если солнце ослепит камеру или пойдет сильный дождь. Более того, Tesla не использует 3D-карты, чтобы дать своему ИИ хоть какое-то представление о местности. Искусственный интеллект должен разбираться во всем сам, в режиме реального времени. С одной стороны, это делает систему значительно дешевле в производстве. С другой — в ней нет ни единого резервного контура, ни одной «страховочной сетки». Чтобы такой подход был хотя бы минимально безопасным, точность работы ИИ должна приближаться к 100%. Но даже в этом случае остается риск, что плохие погодные условия просто «ослепят» камеры, и вся система станет бесполезной и опасной.

И вот здесь возникает ключевой вопрос: а возможно ли в принципе создать ИИ, способный быть абсолютно надежным в такой многогранной и непредсказуемой задаче, как вождение автомобиля?

Необъятный мир дорог и пределы ИИ

На первый взгляд может показаться, что вождение — задача довольно простая и строго регламентированная. Есть правила дорожного движения, знаки, разметка. Но на самом деле это не так. На дороге постоянно возникают так называемые «краевые случаи» (edge cases) — нестандартные ситуации, с которыми ИИ раньше не сталкивался. Водителям-людям постоянно приходится иметь дело с хаосом погоды, непредсказуемым поведением других участников движения, плохими дорожными знаками и даже дикими животными, выбегающими на дорогу. Искусственный интеллект крайне плохо справляется с такими внешними факторами. Это означает, что вождение — невероятно широкая область применения для этой технологии. ИИ должен быть хорош в тысяче разных вещей одновременно.

Именно здесь на сцену выходит гипотеза Флориди.

Лучано Флориди — профессор Йельского университета и основатель Центра цифровой этики. Как вы понимаете, он кое-что смыслит в искусственном интеллекте и его ограничениях. В своей недавней научной работе Флориди выдвинул гипотезу, согласно которой любая система ИИ может обладать либо широким охватом, но низкой надежностью, либо узким охватом и высокой надежностью. Ключевой момент гипотезы Флориди заключается в том, что ИИ категорически не может иметь и то, и другое одновременно.

Иными словами, чем шире становится сфера применения ИИ, тем менее точным он будет и тем чаще будет выдавать аномальные результаты (те самые «галлюцинации»). Идея эта взята не с потолка — она базируется на фундаментальных математических принципах работы нейронных сетей.

Давайте теперь посмотрим на систему FSD от Tesla через призму этой гипотезы.

Приговор для Full Self-Driving

Вспомним систему автоматического экстренного торможения. В автомобилях Waymo она вынесена в отдельный контур, работает на простых и надежных датчиках (радар, лидар), данные которых не требуют сложной интерпретации, в отличие от видео с камер. Это пример применения ИИ с узким охватом. Благодаря этому такую систему можно оптимизировать и верифицировать, то есть доказать ее надежность. Это ключевой шаг для допуска беспилотных автомобилей на дороги общего пользования.

А что у Tesla? Та же самая функция возложена на основной ИИ, который получает данные с камер и должен их интерпретировать. Это задача с невероятно широким охватом. Согласно гипотезе Флориди, такая система не может стать по-настоящему надежной. А ведь безотказное экстренное торможение — это, пожалуй, самое важное требование к любому автомобилю, не так ли?

Но проблема еще глубже. Использование 3D-карт и множества типов датчиков у конкурентов серьезно сужает круг задач для основного управляющего ИИ. Ему нужно анализировать гораздо меньше переменных. Следовательно, по гипотезе Флориди, его можно сделать более надежным. А система FSD от Tesla, лишенная этой помощи, взваливает на свой ИИ непомерный груз. Область применения становится настолько широкой, что достичь необходимой надежности просто невозможно.

И вот самый сокрушительный вывод: гипотеза Флориди утверждает, что независимо от объема дополнительных данных, времени обучения или оптимизации нейросети, компромисс между охватом и надежностью будет существовать всегда.

Другими словами, неважно, сколько еще миллиардов долларов Маск вложит в разработку FSD. Из-за самой архитектуры системы, в которой даже не предпринимается попыток сузить круг задач для ИИ, она всегда будет страдать от ошибок, оставаться ненадежной и, в конечном счете, небезопасной.

Для Tesla это катастрофа. Вся ее текущая рыночная капитализация держится на фантазии о том, что компания вот-вот решит проблему автономного вождения и станет монополистом на этом рынке. Если же оценивать Tesla исключительно как автопроизводителя, исходя из объемов продаж и прибыли, то выяснится, что ее долги превышают реальную стоимость. Как только пузырь FSD лопнет, компанию ждет коллапс. И гипотеза Флориди вполне способна этот пузырь проткнуть.

Некоторые задаются вопросом: доказывает ли гипотеза Флориди преступную халатность со стороны Tesla, ведь она, по сути, утверждает, что Маск продает смертельно опасный продукт? Вряд ли этот аргумент можно использовать в суде. Да он и не нужен. Уже существуют десятки дел, где система FSD становилась причиной гибели людей, потому что Маск и Tesla рекламировали ее как полностью безопасный автопилот, хотя это было далеко от истины. Министерство юстиции США еще до прихода к власти Трампа вело расследование и готовилось предъявить Tesla обвинения в мошенничестве и непредумышленном убийстве. Кто знает, может, теперь, когда Трамп и Маск стали врагами, это дело снова достанут из-под сукна.

Суть в том, что нам не нужна гипотеза Флориди, чтобы осудить Tesla. Но она блестяще доказывает другое: Илон Маск — дилетант, который ничего не понимает в науке, лежащей в основе ИИ, и, как следствие, в полном соответствии с эффектом Даннинга-Крюгера, ведет свою компанию в тупик.

***

✨ А что думаете вы? ✨

Делитесь мыслями в комментариях — ваше мнение вдохновляет нас и других!

Следите за новыми идеями и присоединяйтесь:

Наш сайт — всё самое важное в одном месте

Дзен — свежие статьи каждый день

Телеграм — быстрые обновления и анонсы

ВКонтакте — будьте в центре обсуждений

Одноклассники — делитесь с близкими


Ваш отклик помогает нам создавать больше полезного контента. Спасибо, что вы с нами — давайте расти вместе! 🙌

Оставьте комментарий