Foto: Pixabay
To, jak vozidlo detekuje hloubku vidění je patrno z pohledu na obrázek s množstvím různě tmavých bodů vygenerovaný počítačovým viděním. V minulosti sice Tesla uvažovala o zavedení radarového snímače. Později však na tuto myšlenku rezignovala a místo toho doposud využívá kamery v automobilu a počítačové vidění.
Konkurenční autonomní elektromobily při tom v mnoha případech dokonce kombinují jak radarové tak lidarové senzory. Elon Musk však na tuto skutečnost reaguje tvrzením, že kamery a propracované neuronové sítě jsou vlastně klíčem k dosažení vlastního autonomního řízení.
Podle Elona Muska je to poměrně logický princip podobný jako v lidském organismu, kdy kamery slouží jako oči a neurální systém jako mozek. Hacker Green však získal přístup administrátora do složky root ve svém vozidlu a mohl tak připravit video s názornou ukázkou toho, jak Tesla vidí své okolí.
Na druhou stranu byl sám překvapen a konstatoval, že z dané množiny různě tmavých bodů reprezentujících hloubky vidění by se dal klidně vytvořit 3D model okolí vozidla. Problémem však zůstává, že rozlišení není ani zdaleka tak velké, jak Tesla uvádí. Důvodem může být, že podle Greena Tesla pro měření hloubky vidění používá pouze jednu z osmi kamer. Do budoucna by se tato nová neurální síť, která je základem autonomního řízení Tesly, měla hromadně rozšířit v rámci aktualizace FSD Beta v9.
Zdroj: Electrek.co (odkaz)