Bex S.A. Infraestrutura Brasileira
de Mobilidade Autônoma S.A

As escolas de autonomia veicular

Existe um debate fundamental no mundo da condução autônoma que define como cada empresa constrói seus veículos. A pergunta é simples: como um carro deve enxergar o mundo?

A resposta a essa pergunta divide a indústria em três escolas distintas. Cada uma carrega premissas diferentes sobre custo, escalabilidade e o papel da inteligência artificial. Entender essas escolas é entender o futuro da mobilidade — e entender por que a Bex fez a escolha que fez.


A escola sensor-heavy

Waymo. Cruise. Aurora. Motional.

A primeira geração de veículos autônomos nasceu empilhando sensores. Um carro da Waymo carrega câmeras, radares, LiDARs e sensores ultrassônicos — cada um cobrindo uma faixa do espectro, cada um gerando uma camada diferente de dados sobre o ambiente.

A lógica é de redundância: se a câmera falha, o LiDAR compensa. Se o LiDAR não vê um objeto transparente, o radar detecta. A fusão de múltiplos sensores cria uma representação rica e confiável do mundo ao redor.

O problema é o custo. Um único sensor LiDAR de alta resolução pode custar mais que um carro popular brasileiro. Multiplicado por quatro ou cinco unidades por veículo, mais os radares, mais a computação necessária para fundir tudo em tempo real — o custo por veículo se torna proibitivo para operação em escala.

A Waymo opera frotas limitadas em cidades mapeadas centímetro a centímetro. Funciona extraordinariamente bem dentro desses limites. Mas escalar para milhões de veículos, em milhares de cidades, com infraestrutura viária precária? O modelo sensor-heavy tem dificuldade estrutural com isso.


A escola vision-only

Tesla FSD. Comma.ai OpenPilot.

A segunda escola faz uma aposta radical: câmeras são suficientes. Se um ser humano dirige usando apenas dois olhos, um computador com oito câmeras e inteligência artificial suficiente deveria conseguir o mesmo.

A Tesla é o caso mais conhecido. Em 2022, removeu os sensores de radar e ultrassom dos seus veículos, apostando exclusivamente em câmeras e redes neurais. O argumento de Elon Musk: LiDAR é uma muleta. A solução real é ensinar o software a enxergar como um humano — e isso exige dados, não sensores caros.

A Comma.ai, com o OpenPilot, segue a mesma filosofia com abordagem open-source. Uma única câmera e um device simples instalado no veículo, rodando modelos que aprendem a partir de milhões de quilômetros dirigidos por motoristas reais.

A vantagem é econômica e escalável. Câmeras custam centavos comparadas ao LiDAR. Qualquer veículo com câmeras pode, em tese, rodar o software. E a cada quilômetro dirigido, o modelo melhora — criando um ciclo virtuoso de dados e inteligência.

A desvantagem é que visão pura depende inteiramente da qualidade do modelo. Em condições adversas — chuva forte, neblina, sol direto na lente — a câmera sofre. E sem redundância de sensores, o sistema precisa ser extraordinariamente confiável no processamento do que a câmera captura.


A escola híbrida

Mobileye. Huawei ADS. Xpeng XNGP. BYD.

A terceira escola busca um meio-termo pragmático. Câmeras como sensor primário — porque são baratas e escaláveis — com radar como backup para situações críticas. Sem LiDAR no veículo de produção, mas com uma arquitetura que não depende exclusivamente da visão.

A Mobileye, subsidiária da Intel, é a referência dessa abordagem. Seus chips de visão computacional já equipam mais de 150 milhões de veículos no mundo. O sistema EyeQ processa vídeo em tempo real com consumo mínimo de energia, e o radar complementa a detecção em distâncias longas e condições de baixa visibilidade.

A Huawei ADS e a Xpeng XNGP seguem caminhos semelhantes na China: visão computacional como espinha dorsal, radar como rede de segurança. Conseguem operar em cidades sem mapeamento prévio — algo que a escola sensor-heavy ainda não faz bem.

O modelo híbrido é o que mais cresce globalmente, porque equilibra custo, segurança e escalabilidade. Não é a solução mais elegante, mas é a mais pragmática para colocar autonomia em milhões de veículos nos próximos anos.


A tendência é clara

O mundo está convergindo para visão. Mesmo empresas que nasceram na escola sensor-heavy estão reduzindo a dependência de LiDAR. A Aurora, que desenvolve caminhões autônomos, já trabalha com configurações de sensor mais enxutas. A Mobileye planeja remover o LiDAR dos seus sistemas de próxima geração.

A razão é matemática: câmeras ficam melhores e mais baratas a cada ano. Modelos de IA ficam mais capazes a cada geração. LiDAR fica mais barato também, mas nunca vai custar centavos como uma câmera. E o volume de dados que câmeras geram — combinado com o avanço dos modelos de visão computacional — está fechando a lacuna de desempenho.


Onde a Bex se posiciona

A Bex é vision-first por convicção e por necessidade.

Por convicção, porque acreditamos que visão computacional é o caminho escalável para a autonomia. Se o objetivo é colocar inteligência em milhões de veículos brasileiros, o sensor precisa ser acessível. Câmeras são.

Por necessidade, porque a realidade brasileira exige escala antes de sofisticação. O Brasil opera em L0 — sem nenhuma infraestrutura de autonomia. Não temos o luxo de começar com frotas limitadas de veículos caros em cidades mapeadas. Precisamos de uma rede ampla de coleta de dados, hoje, com hardware que qualquer motorista possa instalar.

É exatamente isso que a Bex Cam faz. Uma câmera — no celular ou no device dedicado — coletando vídeo e telemetria do trânsito brasileiro. Cada quilômetro rodado alimenta o dataset que vai treinar o Bex Pilot, a stack de condução autônoma da Bex.

A escola que escolhemos não é a mais conservadora. Mas é a única que escala para um país continental com 50 milhões de veículos e zero infraestrutura de autonomia.

Começamos pela câmera. O resto vem depois.