Hola,
yo tengo experiencia en el uso de IA en sistemas embebidos (en este momento estoy intentado hacer funcionar una integracion de webgpu para esto en android, e integrado modelos como whisper, u2net, gfpgan y upscalers en java / c++ para mobile)
no se a que le llamas modelos de vision computacional, por que el rango es muy amplio, desde YOLO lo mas simple y facil de correr (por que corre relativamente bien en todos lados), a modelos de deteccion de profundidad que ya es mucho mas complicado.
En hardware + ia, el problemas mas grave, es el tema de drivers. fijate que la plataforma de aceleracion (la NPU) este soportada por ONNX, llama.cpp o ggml. si no lo soporta, tu segunda opcion, es que tengas vulkan 1.1+ y reza que funcione (aca te pueden aparecer 800 problemas tanto en arm como en x86 imposibles de arreglar, por que tienen que ver con el driver del silicon).
si pensas usar ONNX, para hacer por cpu, fijate que lo soporte con aceleración XNNPack o openvino de intel, por que sino, dependiendo el modelo que uses, te va a ser inusable por lo lento
Yo no iria por al amd, por una cuestion de soporte y valor a largo plazo, excepto existan características muy especificas de consumo electrico, espacio, conexion de las camaras (por que necesitarias conectar y procesar en el mismo dispositivo 8 camaras al mismo tiempo?
la gran ventaja de nvidia, es el soporte de cuda, sabes que funciona con todo, que hasta podes usar transformers. Si vas a usar otra cosa que no sea nvidia, busca lo mas barato (hasta las arm sbc, tipo rpi, allwinner etc..) que tengan relativamente buen soporte de vulkan por gpu y usa webgpu, en sus diferentes sabores. podes compilar dawn o wgpu nativo y linkearlo con onnx / transformers o compilar chromium headless y correr transformers.js / onnxruntime web directamente (esto ultimo yo estoy en el proceso de hacerlo por que parece ser la forma mas costo efectiva de hacerlo)
si el consumo y el tamanio no es problema, no descartes usar una notebook, una mini itx con una grafica nvidia aun vieja que soporte cuda.
Cualquier duda particular, pregunte nomas.