テスラのオートパイロット2.0は、8台のカメラで見ることができます

0
2271

昨日、テスラのオーナーがオートパイロットのデバッグモードをハッキングして、テスラの半自律システムのバックエンドを報告しましたが、テスラのもう1人のオーナーは、テスラの第2世代オートパイロットがどのように周りをみているかをよく理解できる、ハックから抽出したデータを報告しました。

第二世代のオートパイロットでは、テスラはコンピュータビジョンに賭け、システムカメラに基づいています。

モデルSとモデルXの周りには8台のカメラがあり、そのうち3台は正面カメラ、250mの狭い前方カメラ1台、メインカメラとして機能するもう1台のミッドレンジ150m、 60mのより短い範囲です。

フロントフェンダーとBピラーの両側にカメラがあり、最後にリアフェーシングがあります。

テスラはレーダーとGPSのデータも使用していますが、テスラが各ソフトウェアのアップデートでより多くを使用するため、カメラはますます重要になっています。

昨日報告されたように、TMCメンバーの「非常に緑色」から得られたデータを使用して、別のTMCメンバーであるBjornbは、カメラによって収集された画像を重ね合わせて、オートパイロットが見ることができる、

ご覧のように、カメラは白黒画像を供給しています。カメラ自体はカラーでも高精細にも記録できますが、モノクロ画像はより速く処理できます。

テスラは、NVIDIAのDrive PX 2コンピュータを使って画像を処理しています。最終的には、ニューラルネットワークとカラー画像を処理することができます(色は唯一の差別化要因ではありません)と並べ替えのもの。しかし、テスラCEOのElon Muskは、信号機の読み取りを必要とするレベル4または5の自律走行をサポートするために車載コンピュータをアップグレードする必要があるかもしれないと述べた。

特にその理由のためにコンピュータを簡単に交換可能にしました。

Bjornbが映像を並べる方法は、正面に面したカメラの視野がどのように働くかについて、本当に良いアイデアを与えてくれます。

各底部のコーナーにあるものは、bピラーのカメラのものです。欠落しているのはフロントフェンダーだけです。

Teslaは、Autopilot 2.0ハードウェアスイートに基づいて開発された自走式ソフトウェアのデモンストレーションで、それらのカメラからの角度も示しました。

これは、Teslaのオートパイロットが運転の決定を下すために使用している情報のビジョンの一部です。また、周囲のオブジェクトの点群マップを作成するためにレーダーの読み取り値を使用します。

今は、車線を車線内に保ち、正面衝突と側面衝突を監視することに限定されますが、優れたコンピュータビジョンシステムがこの視覚情報でどのようにより多くのことを行うことができるかを確認することは難しくありません。