domingo, 1 de noviembre de 2020

Accesorios de cámara hechos con impresion 3D

Este articulo es un resumen de varios diseños que he hecho y se pueden encontrar en thingiverse,  plataforma de descarga de objetos 3D.

Estos objetos 3D se pueden descargar gratis para aquellos disponen de impresora (sobre todo en escuelas y universidades),  para aquellos que no dispongan de impresora y estén insertados  pueden contactar conmigo en el correo telcmartinez@gmail.com poner como Asunto: impresión accesorios 3D.

Aquí dejo el resumen.

Parasol para pantallas LCD:

GY-HC550 / GY-HC500E .

Thingeverse: https://www.thingiverse.com/thing:4640804




GY-HM200 / 250 / 600 / 650 / 620 / 660 

Thingiverse: https://www.thingiverse.com/thing:4640768



Soporte para petaca de micrófono inalambrico.

GY-HC550 /500.

http://www.thingiverse.com/thing:4640804


GY-HM600 / 620 / 650 / 660

https://www.thingiverse.com/thing:4116872

Tally

Sensor de Tally trasero GY-HC900 para conexión y activación de tally en monitor LCD JVC DT-X73 sobre cámara.

Thingiverse: https://www.thingiverse.com/thing:4113121, incluye documento explicativo







miércoles, 28 de octubre de 2020

"Video Stand" Video explicativo de JVC y sus novedades hecho para MAC 2020.

 Este año el MAC o Mercat Audiovisual de Catalunya no se se va a celebrar físicamente como otros años con pequeños stands, pero si de forma virtual. Si la situación del COVID lo permite, se mantendrán algunas charlas que requieren invitación y donde existirá limitación de aforo, es decir será en parte una plataforma temporal de vídeos, charlas y documentos donde cada marca o empresa mostrará su producto.

Al no poder estar presente en el MAC como stand,  pensé que sería buena idea crear lo que he bautizado como "vídeo Stand" con la intención de ponerlo en este blog y explicar las novedades introducidas por firmware en el producto JVC, principalmente aquellas que se refieren a  la capacidad de conexión , streaming y realización remota.

¿Qué es un "vídeo Stand"?  lo que he querido plasmar en el vídeo, no es una charla comedida y programada, ni un vídeo comercial, es intentar explicar las últimas propuestas tecnológicas que JVC tiene en el mercado en una conversación basada en aquello que el cliente debe conocer, más allá de las especificaciones técnicas que están en los catálogos.

Por esa razón, le expliqué mi idea a mi compañero y amigo Federico Isábal,  y le pedí que me ayudara grabando una conversación que podéis ver en el vídeo. 

El vídeo está hecho a partir de una toma o conversación única de unos 20", y su edición posterior.

Los medios utilizados menos la cámara son caseros, el resultado, un vídeo que tiene fallos de grabación, edición, iluminación y post-producción, pero que responde a mi idea inicial de transmitir aquello que más le interesa a los clientes de JVC y que espero que os guste.

https://youtu.be/8bssO7efBPs


Gracias Federico..

Aquí dejo un vídeo doblado del idioma ingles al español, sobre la conectividad.



Nota. Después de ver el vídeo y pese a la calidad del mismo JVC me ha pedido utilizar el vídeo para su publicación en el MAC  ante otras alternativas como vídeos 100% comerciales o charlas a lo cual he accedido encantado.






lunes, 14 de septiembre de 2020

GY-HM250E es "La herramienta" para trabajar con Facebook en eventos sociales.

Este fin de semana he dejado los manuales, los botones de los equipos, la lectura de configuraciones, el PC, y me lanzado al ruedo... he cogido la GY-HM250E y me he ido de boda.

Esta boda estaba planificada para el mes de abril y con la Pandemia vio truncados sus planes hasta este mes de septiembre, y de lo que iba a ser una boda grande por haber mucha familia por ambas partes, se ha quedado en una boda -vamos a decir "muy ajustada"-. Muchas personas no han querido viajar, y otros por prudencia simplemente han anulado su asistencia, todos por miedo al contagio del Covid-19.

La boda se podía haber aplazado durante más tiempo, pero los novios decidieron no hacerlo, "el COVID está ahí, y modificaremos todo lo necesario, pero no puede determinar decisiones de nuestra vida tan relevantes", comentaban. 

Mi apoyo total a su decisión, y aunque su determinación era clara, en nuestras conversaciones era latente, su tristeza o mal estar, por la ausencia por miedo a un posible contagio de muchos invitados queridos, . 

Así que como no podía ser de otra forma les ofrecí transmitir la ceremonia vía Facebook..la respuesta fue inmediata !Si! seguido de un !Genial! y un pequeño comentario en Facebook que recibió decenas de respuestas, "likes" y corazoncillos, además de mi satisfacción personal como familiar directo de colaborar en su felicidad, al hacer que todos pudiesen asistir aunque fuese solo a la ceremonia y en la distancia.

No he hecho intrusismo profesional, allí estaban el fotógrafo y el videógrafo haciendo su trabajo con sus honorarios, pero ellos no tenían en su oferta lo que yo podía ofrecer, la ceremonia en directo compartida por Facebook para los amigos de la novia y del novio.

Para ello he utilizado una GY-HM250E donde inserté como marca de agua arriba a la izquierda unas alianzas con los nombres. En este caso he utilizado como forma de trabajo "emparejar la cámara con Facebook" y transmitir solo a "amigos".

La verdad es que no soy usuario habitual de Facebook y desconozco muchos secretos, pero por lo que he visto, mi mejor opción era emparejar la cámara con la cuenta de Facebook para transmitir.

Con una transmisión "crear evento en Facebook" hubiese sido mas complicado ya que se debería crear con antelación el evento y conectar antes, además entiendo que debería ser una transmisión seguida.

Si lo hubiese hecho con la opción de Facebook de " Transmitir ahora" no hubiese tenido que programar nada, pero debería mantener el acceso a la pagina web para activar la transmisión cada vez que se quiere transmitir, ya que si mantienes el mismo Stream-key la transmisión siempre esta a la espera, y le llega al previo nada más activarlo en la cámara, pero la transmisión final se tiene que hacer desde la página web en transmitir.


Como he comentado la opción elegida fue el emparejamiento que lo hice directamente desde el menú de cámara de la GY-HM250E al Facebook de la Novia (para como hacerlo mirar enlaces finales).


De esa forma yo como camarógrafo inexperto en campo no tendría que  preocuparme de nada, simplemente trabajar en automático, controlar zoom y accionar el "streaming" de la cámara y ya estaría publicando. La idea no era mostrar una transmisión constante y aburrida, sino simplemente mostrar los momentos más importantes y memorables.

Con esta opción además de publicar fácilmente cada vez que se para el streaming se crea un clip de vídeo, y al guardarse en orden de envío al final se muestra toda la historia en pequeñas escenas de vídeo perfectamente ordenadas. 

Nota: 24H después "plena satisfacción por el trabajo realizado" al ver que habían 3.696 reproducciones repartidas entre los 20 clips de vídeo creados.  

Desde luego a nivel de configuración y uso es muy práctico y fácil como muestran las fotos, más información en los enlaces finales.
.
Después de revisar las imágenes mi consejo es, sin lugar a dudas, utilizar un trípode o monotrípode sobre todo si hay que tirar de lejos como mi caso para no interferir en el trabajo del videógrafo y fotógrafo.


Aunque tenia el estabilizador óptico, y yo no lo apreciaba en imagen, algunas imágenes salieron borrosas y con fuertes movimientos. Las novatadas se pagan, je,je je. No tuve en cuenta que el streaming se está publicando a 25P con lo cual ya de por si la fluidez de movimiento es la mitad a lo que estamos acostumbrados de forma visual, y por otro lado tampoco tuve en cuenta el factor compresión. La compresión al ser alta (publicaba a 3M) hace que la estabilidad de imagen sea un factor muy importante para poder ofrecer una buena definición.


La GY-HM250E es una cámara muy versatil y la publicación en directo en Facebook es una función altamente interesante para cubrir y compartir eventos en directo sin complicaciones.

Y como se puede ver en la foto, utilicé un modem USB HUAWEI E8372H.-153 pinchado directamente en la cámara con una tarjeta SIM de Movistar.
Actualmente en la situación que nos encontramos con las limitaciones producidas por el covid-19, creo que la posibilidad de poder ofertar la publicación directa en eventos sociales, políticos y empresas puede tener gran interés y ser una vía adicional de negocio, con costes de explotación muy bajos.
Lo que es evidente, es la gran aceptación y el interés por los espectadores de saber lo que está ocurriendo en el momento y riguroso directo. 


Más información: 

 

miércoles, 9 de septiembre de 2020

CONNECTED CAM STUDIO V6.6.0.624 (Nuevas funciones con una simple actualización gratuita)

JVC acaba de lanzar la versión 6.6.0.624, para CONNECTED CAM STUDIO (CCS).

Esta versión mejora varios aspectos del sistema, ahora el CCS puede recibir streaming con protocolo SRT que es altamente eficaz y estable. 


El protocolo SRT se encuentra también en las nuevas cámaras  de JVC GY-HC5500/550/900 así como el retorno de vídeo por IP y la sincronización vía IP por NTP funciones que hacen que la unión  del CCS y las serie de cámaras JVC GY-HC un conjunto  de trabajo perfecto, ya que ambos combinan y aprovechan al máximo todos sus recursos.

Esta nueva versión de CCS también ofrece una función interesante para la edición de la asignación de funciones del teclado (Keyboard Shorcuts Set Up), esto permite utilizar teclados o paneles de control por USB y personalizar las diferentes funciones asignándolas a las teclas que se desee, la asignacion se puede re programar en todas las secciones de menú ( Outputs,Menu,Camera Swith, Transitions, Overlay, Replay, Timing Options ).
Una vez editados los atajos o teclas de función rápida de cualquier teclado se pueden guardar, lo que permite realizar cambios de forma rápida y que una misma unidad pueda ser utilizada por varios operadores con preferencias o necesidades diferentes en el manejo del equipo.

Otra función muy esperada por algunos usuarios es la posibilidad de modificar las ventanas de "Picture In Picture " y de "Split" en tamaño y posición. La edición de las ventanas permite adecuar espacios para insertar imágenes de marcadores deportivos o traducción de símbolos por ejemplo.
Esto se hace mediante la aplicación "PIP Split editor" que se instala de forma automática en la unidad al hacer la actualización. 

"PIP Split editor" se encuentra en la barra de programas, en el grupo de CONNECTED CAM STUDIO.
Hay que tener en cuenta que si se actualiza la unidad y se abre "CONNECTED CAM STUDIO" mediante el acceso directo del escritorio no se ve ningún cambio respecto a versiones anteriores ya que el "PIP Split editor" no es visible ni accesible desde CCS.
Las ventanas se deben editar previamente en "PIP Split editor" y posteriormente, si se desea, se guarda o se reescribe la configuración del CCS el cual cargará las nuevas ventanas creadas al iniciar la aplicación.

La versión 6.6.0.624 se puede descartar en la pagina web de JVC.
Para localizar las actualizaciones de producto ya sea este caso o cualquier cámara o monitor la dinámica siempre es la misma.
Ir a la pagina web de Europa (suele ser la que se actualiza antes) https://eu.jvc.com/

Entrar en "Professional products".

Se busca el producto que se quiere actualizar, en nuestro caso se encuentra en la sección "Production System".
Pongo como ejemplo el KM-IP4100, entra en detalles.
Entra en el producto, desplaza la pantalla hacia abajo visualizar la lengüeta de "Product Support" o haz click en "Manuals".
Entras en la sección de descarga donde encontrarás el firmware más actualizado e informaciones relevantes sobre el producto.
Los archivos de descarga suelen estar comprimidos en formato .ZIP que se deben descomprimir para su posterior uso. 

Nota: Con KM-IP aconsejo tener anotado siempre el numero de licencia o Key, de esa forma siempre se podrá recurrir a una nueva instalación, ya que si el archivo de registro resulta dañado por alguna causa inesperada, (corte de corriente) siempre se podrá instalar de nuevo y recuperar su funcionamiento puesto que sin el no se inicia la aplicación...

Aquí dejo algunas capturas de pantalla del "PIP SPLIT editor"

Pantallas de SPLIT editor
Pantallas de SPLIT editor y CCS con SLIT editadas

Pantallas de PIP editor y CCS con PIP editadas

Pantallas de sistema, Guardar archivo como / carga archivo / actualizar archivo de CCS. Esta última acción hará que CCS cargue la platillas Split/PiP editadas automáticamente al iniciarse.



























martes, 14 de julio de 2020

Analiza el streaming de cámara, compara resoluciones, codificación, protocolo y "bitrate" o ancho de banda.

EL streaming y los eventos en directo son como los bolos en música , cada día es diferente y aquello que en un dia ha ido perfecto en el siguiente es diferente y ya no suena igual.
Por esa razón en ocasiones es fundamental crear un patrón para realizar pruebas y poder comparar. Yo no conozca a nadie que lo haya hecho, así que decidí ponerme manos a la obra, y ahora después de bastantes horas de trabajo ve la luz en este artículo que espero sea una herramienta útil par todo aquel que hace streaming o tiene la intención de hacerlo.

Esta prueba está un poco basada en el artículo anterior que hice sobre el decodificador de streaming BR-DE900  que he utilizado en esta prueba y que he fijado su salida a 1080/50p ( ver artículo en una nueva pestaña). La idea es testar y comparar diferentes protocolos , codificaciones y bitrates que nos aportaran la calidad final del streaming, todo ello sin que cambie la infraestructura de red o existan variaciones en la misma para descartar variables por ello, luego el streaming ya grabado veremos que pueden aparecer algunos inconvenientes que no se mostraron visualmente monitorizando la salida del decodificador. La postproducción o grabación es algo a tener en cuenta muy importante, ya que forma parte del flujo de trabajo y será en muchos casos el destino final de una emisión.

Para el esta prueba he combinado imagen fija con imagen en movimiento. La imagen fija es un set iluminado pobremente con un par de bombillas led de 5W para poder combinar con imagen en movimiento de una pantalla de plasma, reproduciendo un archivo de vídeo alojado en una USB y reproducida con un pequeño reproductor multimedia doméstico. El vídeo hecho con la cámara GY-LS300 lo he descargado de Youtube y es cortesía de Valentín Osorio Areu https://youtu.be/-Y6SM7B0p-4 aunque yo lo he reducido a 1 minuto escaso para ser más efectivos en las pruebas. 

La cámara utilizada para el streaming es la GY-HC550, ha trabajado con colorimetría ITU709 y con shutter en variable a 59,74 frames para eliminar el parpadeo de imagen que produce el refresco del plasma. El balance de blancos lo he establecido en 4100K para tener una imagen, por lo menos coherente al mezclar imagen de plasma y real, ya que la infraestructura en tiempos de confinamiento de COVI-19 no daba para más que un par de bombillas que tenía por casa.

Me he limitado a utilizar 3 protocolos de la cámara UDP, RTSP y SRT y solo con la combinación de estos tres protocolos y con sus combinaciones resolución-bitrate he obtenido 137 archivos o grabaciones diferentes. (Faltarían protocolos TCP, Zixi, RTMP, RTMPS con sus combinaciones de resolución-bitrate pero creo que la comparativa con las muestras obtenidas ya es suficientemente representativa, ya que podemos equiparar UDP con TCP, RTSP con RTMP/RTMPS y SRT con ZIXI.

El streaming lo decodifico como ya he mencionado con el BR-DE900 con salida fijada a 1920x1080 50p, que se graba en una GY-HC900 a Quick Time HD a 50Mb, me hubiese gustado grabarlo a 70M que me ofrece la cámara para dar mayor transparencia, pero mi editor no me permite trabajar con esa calidad y me es imprescindible usarlo para hacer el UHD con 4 señales 1080. Finalmente después de visualizar los archivos he hecho una selección y diferentes montajes en 4K de aquellos que encuentro más relevantes a nivel comparativo.

Flujo de trabajo de esta prueba.

De esta forma se reproducen las señales a resolución nativa 1080 dentro del vídeo 4K. Lamentablemente  existe compresión por cambio de formato final, pero al sufrir todo el mismo proceso la comparativa entre ellas mismas cumple su cometido.

Para analizar los vídeos tenemos que tener en cuenta que ...
 
El streaming usa codificación H264  o H265/HEVC  que crea o compone la imagen principal y luego solo se refrescan algunos puntos de referencia y la parte de imagen que cambia. Esto hace que se vea pixelado cuando existen grandes cambios de información de imagen y luego cuando cesan esos cambios se estabiliza y mejora enormemente, este efecto se ve reducido cuanto mayor es el "bitrate" del streaming.
Una imagen o un fondo de cambios constantes dará pixelado sin duda alguna a no ser que se trabaje con anchos de banda de 16-24Mb, y aun así, se aprecian temas de compresión si por ejemplo se está captando una multitud de cientos de personas en marcha .
Las cámaras codifican en H264 y con el KA-EN200 (accesorio)  pueden codificar también en HEVC/H265. El KA-EN200 se integra en cámara formando parte de la misma.

Con este artículo me limito a brindar la posibilidad a quien quiere saber y no tiene posibilidades o tiempo de hacer la prueba de comparar el streaming generado por una cámara JVC y el resultado que va obtener, y espero que se sepa diferenciar entre el cometido de la prueba "ver diferencias de protocolos y ancho de banda" y la calidad de las tomas donde se ha hecho lo que se ha podido.

Con las pruebas finales espero ofrecer una orientación de que anchos de banda, codificación y protocolo debemos utilizar para poder hacer streaming con la calidad que cada uno establezca como mínima.

Puntos a tener en cuenta en este escenario.
.
Resolución/detalle se aprecia en toda la imagen incluso en el moaré generado por los pixels del plasma que se verán anchos de banda grandes, en resoluciones bajas yo me he fijado en la lámpara de fibras ópticas en movimiento y el jardinero cuando riega con agua.
En los fundidos de pantalla se ve claramente la limitación del ancho de banda, ya que se aprecian los cuadros de compresión al existir un cambio relevante en gran parte del contenido de pantalla. 
Un fundido o cambio brusco de iris o diafragma requiere un cambio de toda la información de imagen y necesita un gran ancho de banda, si no queremos ver los artefactos o cuadros de compresión, de hecho requieren mucho más ancho de banda que algo grande que se mueve por la pantalla. 
En el vídeo existen varios fundidos, aunque quizás los más evidentes están al final con las imágenes de la la Alhambra.
El movimiento es bueno prácticamente en cualquier formato excepto en de 300K donde se reduce el frame rate y la resolución es muy baja.


Mi conclusión.
Al no ser una prueba de campo no se aprecia diferencia en la robustez de los protocolos, pero por experiencia práctica personal puedo catalogar la robustez de los protocolos en redes públicas como.

UDP, admite un alto bitrate y es altamente transparente en calidad y resolución, pero es el protocolo más frágil y no existe control  de tráfico con lo cual si el streaming no llega a destino el operador de cámara no lo sabe.

RTSP, es un protocolo más robusto que el UDP, aunque tasa de bits no es tan alta si dispone de control de flujo y el operador sabe si el stream está llegando a destino.

SRT es el más robusto de los testados, su "bitrare" no permite llegar a tráficos de datos altos como el UDP, pero es un protocolo muy eficaz con lo cual con "bitrates" bajos se consigue una alta transparencia.

Respecto a las pruebas realizadas,

Yo descarto hacer cualquier transmisión en resolución SD, ya que la limitación no está en el protocolo o la codificación, si no en la propia resolución que codificamos. El mismo protocolo, codificación y ancho de banda permite trabajar en  1280 x 720 y la diferencia de calidad es espectacular.

En la medida de lo posible no utilizar formato entrelazado en streaming, los formatos entrelazados crean diferentes problemáticas que inicialmente se ven sutilmente , pero que después en la edición o transmisión final se ven agravados creando efectos no deseados.
En mi caso y en estos vídeos he captado la imagen con un shutter o frame rate variable de 1/59,4  para eliminar el parpadeo de imagen pero la luz de las bombillas led (del todo a 0 ,6€) trabajan a 50Hz, y ese pequeño desfase del cual no me percate inicialmente ni durante la edición  (aunque existe si se mira con detalle el original), se ha convertido en la grabación final en un verdadero efecto intermitente que nos haría descartar la grabación si somos mínima mente exigentes o podemos prescindir de ellas. En las grabaciones finales muestra el texto blanco en dos fases y es muy desagradable visualmente, esto se produce solo en formatos 50i mientras que en formatos progresivos este efecto no aparece. El trabajar con formato progresivo también facilita el trabajo de la codificación y decodificación a la hora de predecir o recomponer información lo que evita o reduce fallos por pérdida de datos o interferencias en la transmisión que finalmente se traduce en una mejor calidad de transmisión.

Con imágenes controladas para noticias ( imagen del reportero con un fondo discreto en movimiento y contenido ) con 1,5M se puede ofrecer una imagen de calidad y más si se utiliza codificación HEVC con SRT para una estabilidad alta, Hoy en día en gran parte del territorio español se dispone de este ancho de banda más que suficiente, yo vivo en una pequeña ciudad cerca de Barcelona el ancho de banda del que dispongo en subida en el test es de 8M como se ve en la imagen que corresponde a la captura del móvil,  ,lo que es más que razonable y me permite transmitir directamente desde cámara con un modem 4G.


Yo creo que 1,5M puede ser un buen mínimo y de ahí en adelante podemos utilizar anchos de banda superiores según cobertura y ancho de banda de la red, si no se dispone de anchos  de banda suficiente nos podemos ayudar con otros dispositivos como el SFE-CAM que con un coste de 3000-4000€ ( abrir artículo en una nueva pestaña) aumenta el ancho de banda sumando la capacidad de 2 tarjetas SIM, además se puede sumar una tercera con un modem Mifi dando una suma total de 3 tarjetas SIM,el SFE-CAM también dispone de conexión por ethernet por si disponemos de fibra. De esta forma las conexiones móviles prácticamente se mantendrán como conexión de emergencia, y con un ancho de banda alto se puede conectar más de una cámara.

Por otro y lado afortunadamente el 5G en telefonía , ya está aquí ganando terreno, y un ancho de banda de 1,5M no será una porción mínima de lo que nos ofrecen los operadores de telefonía, ( aunque lamentablemente siguen habiendo lugares donde las velocidades de transferencia o ancho de banda se mantienen muy bajas).

GY-HC550

Puedo seguir escribiendo mis opiniones y comentarios, pero lo mejor y el fin de este artículo es que cada uno valore por sí mismo y decida cuál es su referencia de calidad. El "streaming" se ha hecho como dije con una GY-HC550 pero tanto la GY-HC500 (no grafismo) como las cámaras de estudio y ENG de 2/3" GY-HC900 permiten todas las posibilidades reflejadas en este artículo y los videos. 

GY-HC900
Voy a insistir en que los vídeos están generados en UHD creando la partición de 4 imágenes a 1920x1080 que es la resolución que se han grabado los vídeos y que me entregaba el decodificador BR-DE900 a su salida independientemente de la resolución del streaming.
Los vídeos han sido grabados en diferentes sesiones aunque las condiciones de cámara se han mantenido en todas ellas, menos en la 300K. Por esa razón se puede apreciar diferencias en la posición de algunos elementos.
Los gráficos o títulos para evitar errores de catalogación están directamente incrustados en el streaming de cámara a la hora de grabarlos, he insertado el logo de "LIVE" en las imágenes de streaming  y he omitido las marcas de agua para no interferir en la imagen.
Todas los vídeos contienen el original más tres imágenes, que en algunos están pensados para comparar el "bitrate" con lo cual el protocolo es la mismo, en otros se mezclan protocolos y se mantiene el "bitrate" para comparar entre protocolos su efectividad, Si tienes un televisor 4K smart TV puedes ver las imágenes directamente en en tu televisor.a resolución UHD aunque a simple vista y a una distancia de visualización correcta "2,5x anchura pantalla" las diferencias depende del protocolo y bitrate pueden ser sutiles.
 
Yo personalmente dispongo de un PC con pantalla 4K nativa lo cual me facilita mucho el trabajo, puesto que puedo usar la lupa de Windows que es una excelente herramienta para analizar los detalles como se puede ver en la imagen. donde se compara UDP HEVC a 50p (inferior Izquierda) es ligeramente inferior en detalle que a SRT HEVC 25p (superior derecho) y UDP HD264 50i (inferior derecho) que se queda sin detalle ninguno a los 800K simplemente por la limitación de la codificación H264.

Nota. Las cámaras ofrecen diferentes combinaciones de codificación,protocolos, frame rate que no están siempre disponibles en todos los "bitrate" por esa razón se encuentran combinados en algunos vídeos.  

 Aquí tenéis los vídeos ....para mi los más interesantes los finales que comparan diferentes protocolos y codificación H264/HH265-HEVC al mismo bitrate.
 

 https://youtu.be/U0sOK8OamR0   Se compara el "bitrate" en UDP 576 50i 800K , 3M 8M


https://youtu.be/25tigxr2IRI   Se compara el "bitrate" SRT 576 50i 800K, 3M, 5M


https://youtu.be/mEyDhXzTbWw  Se compara "bitrate " de UDP 1080 50p, 8M, 12M, 24M




https://youtu.be/H0ThgpSJ7V8  Se compara el "bitrate " de UDP 1080 50i, 3M, 8M, 20M


https://youtu.be/6ZHsgQDAoes  Se compara el " bitrate" UDP 720  25p 1,5M, 5M, 8M


https://youtu.be/p_S6IjMb_oI   Se compara el "bitrate" SRT 720 25p 1,5M, 3M,, 8M



https://youtu.be/9kuqC2U-GEo  Se compara el "Bit rate" de RTSP 1080 50i/p 3M, 8M, 12M


https://youtu.be/1Pw2onoQGHA   Se compara el "bitrate " de RTSP 720 25/50p 1,5 M, 3M, 8M



https://youtu.be/wKbkN4U-5wY   Se compara el "bitrate " de RTSP 576 50i 800K, 3M, 8M


https://youtu.be/qf35K8DMTr4    Comparando "bitrate" SRT 1080 25p 3M, 5M, 8M.


https://youtu.be/s1S-r75kDkk  Streaming de emergencia compara "protocolos" SRT, RTSP, UDP, a tan solo 300K Lamento la calidad de las tomas y su baja iluminación. Este formato permite crear una miniatura sobre imágenes de archivo a la hora de transmitir una noticia crítica en directo, sin ancho de banda y sin tiempo de subirla a una FTP.


https://youtu.be/eDIYOdYoSi0 Compara protocolos y codificacion (generica H264 y HEVC (con adaptador KA-EN200) la comparación es de SRT 720/25p HEVC,  UDP 720/50p HEVC, y UDP 576 todos a 800K.




https://youtu.be/rnld7u3ZyIk  Compara protocolo SRT/UDP a 1080 50p + UDP 1080 25p todo ello con codificación HEVC a 3M.

https://youtu.be/fWwx-1cHR7s    Comparando Max calidad, SRT 720 50p, 5M 10 bit 4.2.2 ,  UDP 1080 50p 10bit 4:2:2, 24M, UDP 1080 50p H264 24M 



https://youtu.be/IVxugtmv7m4  Con HEVC a solo 1,5M de bitrate comparo protocolos y calidades  con . UDP 720 50p 4:2:0 contra UDP 720 50p 4:2:2 10 bit y SRT 1080 50p 1,5M.


Si te ha gustado este artículo y valoras el trabajo realizado, te agradeceré lo compartas con tus amigos y en en tus redes sociales.

Gracias por leer este blog. 


viernes, 26 de junio de 2020

Decodificador de streaming BR-DE900 de JVC añade el protocolo SRT.


JVC  lanza periódicamente nuevas versiones de firmware para sus productos, en esta ocasión ya está disponible la versión 1.0.3 para el BR-DE900, un decodificador de streaming H264 H265/HEVC de altas prestaciones, que ahora  con esta actualización adquiere la capacidad de decodificar también el protocolo SRT , del que ya dispone la serie de cámaras de hombro y mano GY-HC de JVC.

El BR-DE900 es un decoder diseñado para trabajar 24h/365 días. Trabaja con diferentes protocolos y se puede configurar para que su salida de una resolución fija, es decir reescalado a la resolución de nuestro flujo de trabajo. Esto es una gran ventaja ya que la señal recibida puede llegar en diferentes resoluciones o bit rates, pero su salida no cambia lo que evita problemas en el flujo de trabajo de la realización.

Pantalla principal del interface del BR-DE900.

Cuando se trabaja con protocolos (Push) donde el decoder se mantiene a la escucha, es decir UDP, SRT, ZIXI, un solo decodificador puede recibir streaming de múltiples cámaras ( no simultáneas) sin tener que cambiar la configuración del decodificador.

Las cámaras en este caso tampoco tienen que cambiar la configuración del destino, pero si tienen la libertad de cambiar la resolucion o el bit rate para poder acomodar el streaming al ancho de banda disponible sin que esto produzca cambios de resolución a la salida del decodificador BR-DE900. 


Tanto las cámaras JVC de la serie GY-HC (con KA.E200) como este decoder BR-DE900, disponen de codificación HEVC con lo que la reducción del ancho de banda o datos necesarios para transportar la información se reduce enormemente.
Los protocolos Zixi (necesita Licencia)  o SRT que son altamente eficaces y estables y están disponibles en el BR-DE900 y a esto añadimos la transmisión con codificación HEVC que reduce el ancho de banda y  añadidos a las mejoras tecnológicas que nos brinda la red pública de telefonía, la realidad que cada días es mucho más sencilla cualquier transmisión de vídeo en directo por IP sin necesidad de disponer de grandes anchos de banda.

H264/HEVC. Aqui dejo el enlace a un articulo escrito por Rodrigo Alonso en Hard Zone entrando de forma discreta en tecnicismos pero que explica de forma de llana y clara las ventajas del H265 o HEVC  respecto al H264. 
 
La información sobre el protocolo SRT se encuentra en la web de SRT Alliance a la cual pertenece JVC. 
El protocolo SRT es un protocolo abierto, altamente eficaz y estable, más información en.. https://www.srtalliance.org/


Para añadir el protocolo SRT al BR-DE900 simplemente debemos actualizar el producto.
El proceso de actualización de firmware del ProHD BR-DE900 implica cargar un archivo .TAR dentro de interfaz de usuario HTTPS de la unidad, lo que permite que la unidad extraiga los archivos necesarios y realice la actualización de forma automática.

El archivo de actualización lo encontramos en la web de JVC
 https://eu.jvc.com/pro/production/sde/BR-DE900/ dentro de la sección de sistemas de producción,  decodificadores y codificadores ip. Nos situados dentro del modelo BR-DE900 haciendo click en manuales nos dirige a la sección de descargas donde se encuentra el firmware.
BR-DE900_delivery_181004_v1.0.13.tar.

Hacemos click en Manuales...

Nos dirige a....

Seleccionar BR-DE900_delivery_181004_v1.0.13.tar y descargar


Una vez descargado el archivo con extensión .tar ya podemos conectar con el decodificador mediante su interface web, abrir la lengüeta de General y hacer click en firmware Upgrade, se abre una ventana donde se debe buscar y seleccionar el archivo .tar de actualización que hemos descargado.

Interface web del BR-DE900

Seleccionamos el archivo y click en Load.empieza la transferencia del archivo al interior del BE-DE900.
El tiempo de carga del archivo de actualización puede tardar unos minutos y varía de un PC a otro dependiendo de la velocidad de la red y de la calidad de la conexión entre el PC y el dispositivo ProHD BR-DE900. En una LAN normal, solo lleva unos segundos.

Durante la actualización, mientras se carga el archivo, la interfaz web sondea el estado  de la unidad. Este sondeo también ocurre durante la ejecución real de la actualización dentro del aparato. Para evitar la interrupción del proceso de actualización, no cierre la ventana activa del navegador usado para cargar el archivo.

El procedimiento paso a paso a se muestra a continuación, tal como indican las instrucciones del producto.

Para actualizar la versión de firmware ProHD BR-DE900:

1. Envíe a JVC su solicitud de actualización de firmware o descargue la versión de la pagina oficial de JVC  www.eu.jvc.comhttps://es.jvc.com/pro/ccr/accesorios-camaras/BR-DE900/

2. Haga clic en la pestaña General.

3. Haga clic en Actualización de firmware. Aparece la ventana Cargar firmware.

4. Haga clic en Examinar. Se abre una ventana del navegador.Muestra la información actual del producto.

Actualización de firmware
Dispositivo de decodificación ProHD BR-DE900 HEVC y H.264
Manual de usuario, versión 1.0 45


5. Seleccione el archivo * .tar apropiado y haga clic en Cargar. La ventana de actualización aparece en la pantalla, que indica el progreso del proceso de actualización:

El proceso de carga tarda de unos segundos a unos pocos minutos, dependiendo de su
ancho de banda de red disponible. Cuando finaliza la carga, el mensaje de actualización desaparece.

6. ProHD BR-DE900 se reinicia. Vuelva a conectarse utilizando la dirección IP utilizada anteriormente e ingrese su Información Entrar.

En la pantalla General, verifique de nuevo la versión ( punto 4) si la actualización se ha realizado correctamente verá que se muestra la versión del firmware actualizado.



martes, 19 de mayo de 2020

Utiliza tu cámara JVC en Skype, Zoom,etc..

En la situación actual de confinamiento he recibido bastantes consultas de usuarios de cámaras JVC con streaming GY-HM250, GY-HM660, GY-HC550 etc.. los cuales están acostumbrados a realizar streaming de eventos en directo con una sola cámara y suelen utilizar protocolo RTMP con  YouTube, Enetres, YouOne, o cualquier CDN y en otros casos en RTMPS para Facebook Live, ya que hasta hace poco el trabajo estaba centrado en mostrar espectáculos multitudinarios,  bueno para que explicar..... lo que todos echamos de menos en estos momentos.

Pero las cosas han cambiado y las exigencias del mercado también, ahora la necesidad es integrar a un número de personas frente a una pantalla como partícipes de una reunión donde puedan comentar chatear o verse entre ellos opinar etc...Tienen que se producciones amenas y que mantengan el interés donde existan varias opiniones y comentarios y no de la sensación de que estamos viendo un vídeo grabado. Otra necesidad es la que yo estoy haciendo reunir a personas con interés en producto y mostrarlo con detalle para que lo vean desde su sillón.

Como digo he recibido algunas consultas de clientes que les han surgido trabajos donde se necesitan calidad de imagen y con libertad de movimiento dentro de sesiones de Skype, Zoom, etc,
ya que todo el mundo está intentando recuperar la actividad aunque sea con limitaciones.

Captura imagen del cliente con Zoom ( seminario técnico) 

Captura de imagen del cliente con Skype ( Seminario Técnico donde además comparto imagen de control de cámara KY-PZ100 para mostrar sus funcionalidades)
Son  proyectos de tiendas que quieren mostrar sus productos, conferencias on-line, escuelas,  universidades etc, donde afortunadamente ya existe una infraestructura de conexión y se suele poder hacer sin ningún tipo de problema.

Su consulta , Carlos como puedo hacerlo? , que necesito?, capturadora? software? quiero gastar poco que espero que esto es temporal..... sin recordar "por no usarlo" que su cámara no solo hace streaming a los CDNs, YouTube etc, si no que también lo puede hacer directamente al PC de su cliente desde donde lanza aplicación para comunicarse, de esa forma puede compartir pantalla para mostrar con todo detalle y calidad de imagen al resto de participantes el producto, la acción, el inventó , proyecto físico, etc.



Evidentemente existen multitud de formas , usar capturadoras, conversores NDI, etc, pero si tienes la cámara JVC con streaming lo más sencillo es usar esta función tan versatil  con la que prácticamente no necesitas nada, conectar la cámara a la red Wi-Fi o por Ethernet del cliente y tener un softaware  reproductor multimedia que admita  UDP o RTS

Como siempre yo recomiendo el software libre "Video LAN" más popularmente conocido como VLC (el del cono de tráfico). aunque puede ser cualquier otro que reproduzca streaming UDP o RTSP.
Claro no olvidemos la cámara JVC y el adaptador Wi-FI o Ethernet para su conexión.


Hay que tener en cuenta que el streaming tendrá un retardo de un segundo aproximadamente, si usamos el audio de la cámara simplemente todo ocurrirá un segundo más tarde ( silenciar el micro del PC mientras se muestran las imágenes con cámara) o si no hay que tener en cuenta esa cadencia de tiempo cuando señalamos cosas etc...
Yo en casa utilizo confinado por el Covid19 trabajo con una cámara robotizada KY-PZ100 la infraestructura es mi red informática domestica. El streaming lo hago a 3M 1920x1080 y como suelen ser imágenes sin grandes cambios es su contenido el resultado es muy bueno.

Si estamos haciendo un trabajo para un cliente y se hace por UDP se debe conocer la dirección IP del PC de destino, lo cual puede ser un poco complicado dependiendo del cliente, por tanto yo casi recomiendo hacerlo por RTSP donde desde el software VLC llamará a la cámara y de esa forma sólo necesitamos darle indicaciones al cliente  para que ponga la dirección IP de la cámara en el VLC.
Activamos el streaming en la cámara, y le damos play al VLC y ya podemos compartir pantalla con la imagen del streaming. .

La IP de la cámara la vemos en el menú de Status  "Confi.Conexión" ( dirección IP) una vez este conectada a la red informática.



Nota: Aunque no es probable por trabajar en red interna podría ser que el Firewall de windows bloquee el streaming dando un error, si es así desconectar el firewall o autorizar el uso de la red para el VLC.  
https://www.youtube.com/watch?v=5DUtZkaGnaI
https://youtu.be/m9Tll6uub2o?t=400

En este blog existe la guía de configuración donde esta explicado paso a paso cómo hacer streaming paso a paso. En el ejemplo de la guia se trabaja a muy baja calidad 0.8M podemos aumentar la resolucion a Full HD y el bit rate a 3Mb o más.
https://cmhtec.blogspot.com/2014/04/gy-hm850-y-gy-hm890-guia-rapida-de.html

Después de hacer la guia han aparecido nuevos modelos donde la diferencia en configuración está principalmente en la contraseña, por tanto depende del modelo será:

Si estamos trabajando con las cámaras GY-HM de 3CMOS el usuario es "prohd", mientras que si es 4K  o PTZ el usuario es "jvc",. En el caso de la serie GY-HC es diferente en cada cámara,  pero en cualquier caso lo encontraremos en el menú de Status " Network".



Para otros temas de streaming visitar este resumen de artículos sobre streaming.
https://cmhtec.blogspot.com/2015/10/streaming-resumen-de-articulos.html



miércoles, 25 de marzo de 2020

Realización en remoto , "Connected Cam Studio" KM-IP4100 y KM-IP6000.


Con este articulo quiero dar continuidad la serie Connected Cam explicando algunas cosas fundamentales para entender cómo funciona el sistema y conocer tanto los pros como los contras de una realización remota.

Se entiende como realización remota aquella donde el equipo de realización se encuentra sito en un lugar fijo y las cámaras que generan el contenido se encuentran desplazadas en los diferentes eventos que se deben cubrir, de esta forma solo se desplaza parte del equipo de producción tanto humano como tecnológico.

Existen muchas formulas pero quiero centrarme en la realización IP de bajo coste.

En una realización remota debe disponer de:
Control de cámara.
Comunicación con operadores.
Recepción de las señales de vídeo estable y si es posible sincronizadas.

Control de cámara.
El control de cámaras, depende del fabricante y del modelo, y este será fácil , difícil o imposible.
En el caso de JVC todas las cámaras que tienen USB Host tienen control y muchas cosas más ya sea en los modelos más económicos de menos de 2000€ o en los más caros como la GY-HC900. Con JVC es muy fácil y existen diferentes formas de control remoto (vía PC, con paneles remotos o incluso integrados en la realización como con "Connected Cam Studio" o "Streamstar").
En el control de cámara se deben tener muy en cuenta las latencias o retrasos de la señal hasta que llega a la realización , Si desde realización queremos operar la cámara lo que se modifica tardará un tiempo en llegar. Esto es viable y hay profesionales que tienen un control  casi perfecto, que se consigue con horas de trabajo hasta coger el pulso al las cámaras y su respuesta remota.
JVC en sus cámaras tiene la previsualización IP bien independiente o generando un "Visor multipantalla* " con una latencia mínima que permite un rápido control a distancia, lamentablemente para poder hacer uso de esta magnífica característica se deben utilizar otros medios que no son la propia cámara para hacer streaming o enviar la señal vía IP, RF etc, ya que JVC en estos momento no permite la transmisión simultánea de dos calidades (streaming de alta calidad y proxy de baja).

Comunicación con operadores.
El tema de la comunicación con el operador de cámara existen diferentes fórmulas, mochilas con intercom, intercom vía teléfono, etc.. JVC además de las soluciones estándar del mercado dispone en algunos modelos de cámara con un canal de comunicación vía IP (IFB), donde el realizador puede dar instrucciones a los operadores de cámara y el operador no necesita nada más que tener el auricular, puesto que que la cámara dispone de un decodificador interno y no requiere equipos adicionales.

En la nueva generación de cámaras JVC "Connected Cam" además del IFB se dispone de la opción de recibir el video de retorno de programa como referencia a los operadores o incluso en la GY-HC900 se ver con Picture in Picture por visor y tambien se puede extraer a un monitor y hacer en cualquier lugar un "Set" de entrevistas con retorno, donde el entrevistado puede ver al entrevistador o comentar videos o imágenes que se lanzan desde la realización.


Recepción de las señales de vídeo estable y si es posible sincronizadas.
Finalmente nos queda el tema de la señal de video  y la sincronización y aquí es donde se complica más la cosa ya que depende como se haga los resultados pueden cambiar radicalmente.

Debemos tener en cuenta que si utilizamos Internet para transmitir video, es imprescindible disponer de suficiente ancho de banda, si no, los datos se perderán en el camino o llegarán demasiado tarde i la imagen ya no se podrá recomponer provocando falta de señal, congelación de imágenes o drops (pérdida de información cuadrados). 
El streaming es un flujo constante y tiene limitaciones importantes en la capacidad de reconstruir la pérdida de datos. La capacidad para soportar pérdida de datos varía dependiendo del protocolo de transmisión que se utilice, este margen es amplio y que yo conozca puede ir de 0,2% en UDP hasta superar el 30% en Zixi. Esto tiene un contra importante, y es que a mayor seguridad , mayor latencia o retraso.
En Live video streaming se muestran los fotogramas conforme van llegando y completan una imagen.con un tiempo de espera que si se supera se omite el frame o la imagen mostrando la siguiente completa. Internet provoca diversas latencias que pueden variar de forma continua ya que la información se divide , mueve y modifica su camino hasta el destino constantemente. Esto conlleva a que aunque se envíen varios videos que están sincronizados en origen, no estarán sincronizados al llegar a destino, 
Además de la latencia o retraso provocado por la codificación y decodificación del video a IP, los live streaming sufrirán un desfase de tiempo entre ellos, ya que con seguridad seguirán caminos diferentes, perdemos algunos paquetes en el camino y se deberá esperar que lleguen de nuevo para componer las imágenes.


El siguiente link es muy gráfico y creo que puede ayudar a comprender mi explicación, lo pongo a partir del punto donde habla de cómo se desfragmenta la señal y se envía, aunque la visualización completa del video es recomendable si eres como yo y quieres tener una visión del funcionamiento de internet.




La latencia por viaje de los datos dentro de internet es totalmente incontrolable, por tanto encontrarnos que dos cámaras sincronizadas por genlock en origen, captando lo mismo, desde diferentes ángulos al llegar a destino las imagenes se muestran con dos tiempos diferentes que además fluctuaron en el transcurso de la transmisión.
Ejemplo: la cámara uno muestra el gol como entra la pelota y como la pelota está dentro y al cambiar a cámara 2 vemos que la pelota desde otro ángulo vuelve a entrar dando la sensación de que la pelota ha ido hacia atrás y ha vuelto a entrar.(Tongooo ja,ja,).

Este problema de las latencias diferentes no se puede eliminar si trabajamos con streamings diferentes (1 por cámara) que circulan libremente por internet hasta llegar al destino.



Crear un VPN (Virtual Private Network) que garantiza seguridad ante intrusiones pero no garantiza que los streamings o imágenes lleguen sincronizados y sin derivas en tiempo.



Trabajar con sistemas de transmisión con bounding (mochilas) que aseguran en gran medida la transmisión, pero no la sincronía ya que son streamings diferentes. (Ahora empieza a aparecer algún sistema que sincroniza en cloud pero son complejos con elevados precios ). 


Este efecto lo podemos ver siempre que transmitimos vídeo de forma independiente con routers o mochilas (aunque estas utilizan más de un router) etc.. La razón, cada imagen desde el origen, (cámara,  codificador o mochila), tiene un IP de origen y destino  diferente por tanto el router se asegura de lanzarlo a Internet perfectamente etiquetado para que los datos que salieron de la cámara 1 IPX al mezclador IPX/Puerto lleguen sin error y si tiene que esperar para recuperar datos o ha elegido un camino más largo que la cámara 2 llegará más tarde produciendo el efecto comentado anteriormente en el ejemplo.

Es diferente cuando codificamos las cámaras en red local y la salida de esta red con todos los streamings se envía por un VPN y mejor si disponemos de tecnologías añadidas con¡mo SpeedFusion ,Balance y o bounding.

¿Por qué? Porque nuestro router no sabe si enviamos una imagen , un texto o una letra, el router coge la información y la trocea creando los datagramas o particiones etiquetadas de forma que tratara todo el bloque de imágenes individuales como una sola, etiquetando su orden para que llegue a destino de igual forma que entraron en el router, es decir como una única imagen, de esta forma cuando se completa el paquete de datos ya disponemos de todas las imágenes.
Yo he realizado pruebas de transmisión con el SFECAM en un lado (router de campo con Speed Fusion, Balance, encriptación, FEC (corrección de errores) y Bonding-Debonding y en el otro lado el BPL-2100 switch/router estacionario con bonding-debonding y cámaras JVC y los resultados para mi han sido espectaculares, ya que aunque he observado alguna diferencia en tiempos de algún frame estos se mantienen si las cámaras están sincronizadas. Puesto que la información es bidireccional hago mención de en un lado y otro y no de transmisión recepción 

Enlace a Artículo SFECAM.


En el caso de utilizar cámaras JVC es muy simple hacer esto ya que las cámaras al codificar internamente solo tengo que mantenerlas en la misma red de datos que me proporciona el SFECAM.
Esta configuración es casi perfecta y yo me atrevería a hacer una realización estándar sin problemas pero como he comentado tiene pequeñas latencias y no me garantiza la sincronía entre las cámaras.

Como he dicho las cámaras de JVC codifican internamente la señal de streaming, pero además aportan un añadido altamente importante y es que introduce en el streaming información de tiempo NTP que podríamos decir es el Genlock o sincronismo de internet. Esta función es ideal para sincronizar grabaciones sin necesidad de genlock en las cámaras ya que si las referenciamos con NTP todas tendrán el mismo código de tiempos, estén a un metro de distancia o a kilómetros.
Enlace a Artículo NTP

La capacidad de las cámaras JVC de enviar dentro del streaming el código de tiempo ha permitido desarrollar los sistemas de producción "Connected Cam Studio" KM-IP4100 y KM-IP600. estos junto con las cámaras JVC permiten gracias al código de tiempos en streaming sincronizar las cámaras en streaming,  y es indiferente si se envía el streaming de forma independiente y separada como se comento al comiezo del articulo o en bloque mediante un equipo como el SFECAM que he comentado anteriormente que aporta ventajas de transmisión y estabilidad en el flujo de datos.

 https://www.cybervista.net/
https://www.cybervista.net/network-time-protocol/
¿Como sincroniza el KM-IP4100 y KM-IP6000 las imágenes?.
Como he comentado gracias al NTP del streaming y simplemente, se le asigna un streaming de entrada como referencia y el resto como esclavos. Evidentemente los problemas de internet siguen estando y si recibimos el streaming de cámaras por canales separados unas llegarán antes y otras después, pero en este caso el KM-IP es el encargado de leer memorizar y corregir los desfases entre los diferentes streamings de forma que corrige el error y entrega las cámaras sincronizadas. Para los que como yo ya tienen muchas canas es nuestro antiguo TBC con una entrada de Black Burst que en este caso sería el NTP que llega por el propio streaming. 

Si son cámaras muy separadas físicamente podemos encontrar dificultades iniciales por existir un diferencial de latencia grande entre una cámara y otra (ejemplo real, mezcla de cámaras en Granada y Barcelona) en ese caso el equipo nos permite actuar de forma sencilla con el tamaño del Buffer ( memoria interna) para poder compensar esta diferencia y que las cámaras se sincronicen. En este caso se tuvo que aumentar en Buffer las entradas de cámara de Granada  (locales) y reducir el de las de Barcelona (estaban más lejanas) para conseguir una buena estabilidad de sincronización.

Si por alguna razón las cámaras se desincronizan el KM-IP4100/6000 advierten al realizador con una indicación clara en pantalla de previo con "NO SYNC" para que no realice un encadenado de imágenes que puedan mostrar ejemplos similares al mencionado al principio de la pelota que sale y entra de la portería.

Conclusiones personales. 

En definitiva hacer una realización remota sin nada específico, es demasiado inestable y no lo doy como viable.

Si utilizamos un sistema como el SFECAM y el BPL-210 para transmisión y se hace que todos los streamings pasen a través del sistema, creo que  da suficiente estabilidad para poder hacer realización remota en la mayoría de los casos, con pequeñas demoras aunque sin sincronía.

Por último la opción económicamente asequible que actualmente está en el mercado es la utilización de las cámaras JVC junto con los KM-IP que garantiza la sincronización entre cámaras, si a eso le añadimos el  SFECAM que da estabilidad en el transporte y recepción de señal es la combinación perfecta para cualquier realización remota con costes asequibles.

El sistema de sincronización IP de los KM-IP se basa en la lectura del código de tiempo NTP introducido en el streaming que tienen las cámaras JVC.Otros streamings procedentes de otras cámaras o decodificadores pueden no ser compatibles o con la sincronización IP

Los PM-IP4100 y KM-IP600 permiten con cámaras JVC:
Control remoto de optica funciones y colorimetría.
Sincronizar el streaming de las cámaras.
Enviar órdenes de audio a los operadores de cámara IFB (Icecast).
Enviar retorno de vídeo vía IP a los cámaras (serie Connected Cam).

Espero que esto pueda haber aclarado algunas dudas sobre la viabilidad de la realización remota, ya que en la actualidad es una necesidad, pero esta tiene complicaciones importantes si no se dispone de equipos específicos para ello.

El conjunto de equipos de JVC "Connected Cam" están pensados y diseñados para realización remota ( realización KM-IP, cámaras GY-HC, transmisión SFECAM-BPL210) diseñados para un trabajo intenso, de rápida configuración y puesta en marcha sin complicaciones, donde se consiguen unos resultados altamente profesionales con una moderada infraestructura de personal, esto su calidad de imagen y prestaciones hacen de este conjunto una opción de mercado altamente rentable.
El KM-IP son realizaciones todo en uno con replay, gráficos,ingesta, logos, streaming multiplataforma, entradas multiformato, grabación , control cámara , sincronización y más,
Descarga catalogo aquí KM-IP4100 KM-IP600. o visita la web de JVC.es.jvc,es