¿Qué pasaría si una cámara de seguridad no pudiera simplemente capturar video sino entender lo que está sucediendo, distinguiendo entre actividad rutinaria y comportamiento potencialmente peligroso en tiempo real? Investigadores de la Facultad de Ingeniería y Ciencias Aplicadas de la Universidad de Virginia han creado el futuro con su último avance: un analizador de vídeo inteligente impulsado por IA capaz de detectar acciones humanas en secuencias de vídeo con una precisión e inteligencia sin precedentes.

El sistema, llamado Red de Transformadores Espaciotemporales Semánticos y Conscientes del Movimiento (SMAST), promete amplios beneficios sociales al mejorar los sistemas de vigilancia y la seguridad pública para permitir un seguimiento del movimiento más avanzado en la atención médica y refinar la forma en que los vehículos autónomos navegan en entornos complejos.

“Esta tecnología de IA abre la puerta a la detección de acciones en tiempo real en los entornos más exigentes”, afirmó Scott T., profesor y presidente del Departamento de Ingeniería Eléctrica e Informática. Acton e investigador principal del proyecto. “Este es un avance que podría ayudar a prevenir accidentes, mejorar el diagnóstico e incluso salvar vidas”.

Innovación impulsada por IA para análisis de vídeo complejos

Entonces, ¿cómo funciona? En esencia, SMAST funciona con inteligencia artificial. El sistema se basa en dos componentes clave para detectar y comprender comportamientos humanos complejos. El primero es un modelo de atención selectiva con múltiples funciones, que ayuda a la IA a centrarse en la parte más importante de una escena, como una persona o un objeto, ignorando detalles innecesarios. Esto hace que el sistema sea más preciso a la hora de detectar lo que está sucediendo, como por ejemplo detectar que alguien está lanzando una pelota en lugar de mover el brazo.

La segunda característica clave es un algoritmo de codificación posicional 2D sensible al movimiento, que ayuda a rastrear cómo se mueven los objetos a lo largo del tiempo. Imagínese ver un video en el que las personas cambian constantemente de posición: esta herramienta ayuda a la IA a recordar esos movimientos y comprender cómo se relacionan entre sí. Al integrar estas funciones, SMAST puede reconocer con precisión acciones complejas en tiempo real, lo que lo hace más útil en escenarios de alto riesgo como vigilancia, diagnóstico de atención médica o conducción autónoma.

SMAST redefine cómo las máquinas reconocen e interpretan las acciones humanas Los sistemas actuales luchan con secuencias de vídeo contiguas, desordenadas y sin editar, a las que a menudo les falta el contexto de los acontecimientos. Pero el diseño innovador de SMAST le permite capturar relaciones dinámicas entre personas y objetos con una precisión notable, impulsado por el componente de inteligencia artificial que le permite aprender y adaptarse a partir de los datos.

Estableciendo nuevos estándares en tecnología de detección de acciones

Este salto tecnológico significa que los sistemas de IA pueden detectar acciones como un corredor cruzando la calle, un médico realizando un procedimiento específico o incluso una amenaza a la seguridad en un espacio concurrido. SMAST ya ha superado a las soluciones de primer nivel en puntos de referencia académicos clave, incluidos AVA, UCF101-24 y EPIC-Kitchen, estableciendo nuevos estándares de precisión y eficiencia.

“El impacto social podría ser enorme”, afirmó Matthew Korban, investigador postdoctoral asociado en el laboratorio de Acton que trabaja en el proyecto. “Estamos entusiasmados de ver cómo esta tecnología de IA puede transformar las industrias, haciendo que los sistemas basados ​​en video sean más inteligentes y capaces de comprender en tiempo real”.

Esta investigación se basa en el trabajo publicado en el artículo “Una red transformadora espaciotemporal semántica y consciente del movimiento para la detección de acciones”. Transacciones IEEE sobre análisis de patrones e inteligencia artificial. Los autores del artículo son Matthew Corban, Peter Youngs y Scott T. Acton de la Universidad de Virginia.

El proyecto fue apoyado por la Fundación Nacional de Ciencias (NSF) bajo la subvención 2000487 y la subvención 2322993.

Source link

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *