Vídeo · IA en la nube sobre clips

NPU on-device hoy. IA en la nube sobre los bytes que subes.

mos-roi-shader y mos-ai-runtime realizan la clasificación en el dispositivo; un producto cloud Munic ejecuta IA por clip más pesada sobre los segmentos subidos y fusiona con el flujo de eventos lifecycle — comportamiento del conductor, DTC, posición OBD, pose GNSS. El clip es conforme RGPD cuando la nube lo ve.

Cómo funciona

Dos niveles de IA. Un flujo de eventos lifecycle.

La captura con difuminado RGPD en vivo alimenta la clasificación NPU on-device (mos-roi-shader y mos-ai-runtime) y el segmento grabador. El segmento es subido vía SFTP en bytes conformes RGPD hacia la IA en la nube. El comportamiento del conductor, los DTC/posición OBD y la pose GNSS alimentan el flujo de eventos lifecycle, que fusiona con la inferencia IA en la nube por clip y sale hacia el panel de flota.

flowchart TD
  CAP[Captura<br/>difuminado RGPD en vivo en tiempo de captura] --> NPU[Clasificación NPU<br/>on-device mos-roi-shader + mos-ai-runtime]
  CAP --> REC[Segmento grabador<br/>clip anonimizado]
  REC --> UPL[Carga SFTP<br/>bytes conformes RGPD]
  UPL --> CAI[IA en la nube<br/>inferencia por clip]
  DRV[Comportamiento del conductor] --> LS[Flujo de eventos lifecycle]
  OBD[DTC / posición OBD] --> LS
  GNS[Pose GNSS] --> LS
  LS --> CAI
  CAI --> DSH[Panel de flota]
Captura (difuminado RGPD) → clasificación NPU on-device + segmento grabador → carga SFTP → IA en la nube; flujo de eventos lifecycle (comportamiento del conductor, DTC/OBD, GNSS) → IA en la nube → Panel de flota

La clasificación on-device se ejecuta antes de que un byte salga del dispositivo — la extracción ROI Vulkan y la inferencia NPU descartan frames irrelevantes. Lo que llega a la nube ya está anonimizado y ya filtrado. La IA en la nube ejecuta modelos por clip más pesados y fusiona con el flujo de eventos lifecycle AI Funnel para el comportamiento del conductor y la correlación de incidentes a escala de flota.

2 niveles de IA clasificación NPU on-device + inferencia por clip en la nube
0 copias de pixel CPU en la ruta caliente de IA cero-copia dmabuf-a-NPU en Qualcomm vía rpcmem/ION
~100 TOPS silicio AI-class QCS6490 · rebanadas NPU iMX8M Plus
0 código de integración para el pipeline AI Funnel la correlación de eventos lifecycle se entrega con el micro service

Lo que no escribes

La infraestructura entregada por MOS4.

service mos-roi-shader

Extracción ROI Vulkan con cero-copia dmabuf-a-NPU en Qualcomm vía rpcmem/ION — sin copias de pixel CPU en la ruta caliente de IA. Las regiones de interés son extraídas y entregadas al NPU sin salir del dominio de memoria del acelerador.

service mos-ai-runtime

Inferencia NPU .tflite en iMX8M Plus y QCS6490 — ejecución concurrente multi-modelo en las rebanadas NPU, gestionada por el micro service. Trae tu archivo de modelo .tflite; el runtime gestiona la planificación, la memoria y la entrega de resultados.

pipeline AI Funnel

Reentrenamiento en la nube, cuantización y entrega de modelos OTA — gestionado por el pipeline AI Funnel. Los modelos reentrenados llegan al dispositivo sin ciclo de actualización de firmware. No se requiere código de integración para cablear el bucle de retroalimentación.

runtime lifecycle event correlation

TimeCorrelator adjunta un flag wall_clock_trustworthy a cada evento lifecycle — comportamiento del conductor, DTC, posición OBD, pose GNSS. La IA en la nube usa el flag para rechazar coincidencias de timestamp ambiguas antes de fusionar con los resultados de inferencia de clip. La postura RGPD está documentada en /es/platform/compliance.

Alcance

Un producto cloud Munic específico proporciona la inferencia por clip y la fusión lifecycle descritas en esta página. El nombre del producto, el precio y la arquitectura cloud están fuera del alcance de esta página — esa conversación comienza con el equipo de ingeniería. Usa el CTA a continuación para contactar.

Preguntas frecuentes

Preguntas frecuentes

  • ¿Dónde se ejecuta realmente la IA — on-device o en la nube?

    Ambos niveles funcionan juntos. On-device, mos-roi-shader (extracción ROI Vulkan, cero-copia dmabuf-a-NPU) y mos-ai-runtime (inferencia .tflite en NPU) realizan la clasificación directamente en el dispositivo — descartando frames irrelevantes antes de que salgan del aparato. Un producto cloud Munic ejecuta luego una inferencia por clip más pesada sobre los segmentos subidos. Ambos niveles son complementarios; no tienes que elegir uno.

  • ¿Cómo puedo asociar un clip a un evento de frenada brusca o un DTC?

    La correlación se realiza en el lado de la nube mediante correlación temporal. El flujo de eventos lifecycle transporta señales de comportamiento del conductor, códigos DTC, la posición OBD y la pose GNSS con timestamps wall-clock. El componente TimeCorrelator adjunta un flag wall_clock_trustworthy a cada evento para que la nube pueda rechazar correlaciones ambiguas. No escribes la lógica de correlación — el pipeline AI Funnel la gestiona.

  • ¿El clip es conforme RGPD cuando la nube lo recibe?

    Sí. La anonimización ocurre en tiempo de captura en el dispositivo, antes de que el segmento sea escrito en disco. La nube nunca recibe datos de pixel en bruto que contengan información de identificación personal. Consulta la página /platform/compliance para la postura RGPD completa — pipeline de difuminado, aplicación de política de retención y pista de auditoría.

  • ¿Tengo que escribir código de runtime de IA?

    No. mos-ai-runtime proporciona el motor de inferencia .tflite on-device — la ejecución concurrente multi-modelo en las rebanadas NPU es gestionada por el micro service. El pipeline AI Funnel cubre el reentrenamiento en la nube, la cuantización y la entrega de modelos OTA. Proporcionas el archivo de modelo y el punto de integración; MOS4 posee el runtime.

  • ¿Puedo desplegar un modelo de IA personalizado?

    Sí. mos-ai-runtime acepta modelos .tflite y soporta la ejecución concurrente multi-modelo en las rebanadas NPU del silicio soportado (iMX8M Plus, QCS6490). Traes el modelo; el micro service gestiona la planificación, el cero-copia dmabuf-a-NPU y la entrega de resultados al pipeline AI Funnel. Habla con ingeniería para orientación de cuantización específica del silicio.

Dos niveles de IA. Cero código de integración para el runtime.

La clasificación NPU on-device filtra antes de la subida; un producto cloud Munic ejecuta la IA por clip y fusiona con el flujo de eventos lifecycle. Habla con ingeniería para definir el modelo y el silicio.