Los diferentes protocolos de señalización involucrados en este tipo de comunicaciones, las comunicaciones audiovisuales sobre redes telemáticas, hemos presentado de alguna manera cada uno de los elementos que conforman esas comunicaciones y qué función tienen o qué papel desempeñan dentro de una comunicación y ahora lo que vamos a hacer es entrar un poquito más en detalle. Entonces para entrar un poquito más en detalle yo os voy a hablar de lo que conozco, que son los protocolos Policom, Dios mío que estoy diciendo, los productos Policom. Entonces sin entrar a nivel de producto lo que sí que vamos a hacer es destacar de alguna manera o resaltar las características que son necesarias con elementos de ese tipo de desempeño. Veréis que en este mundo, en este mercado hay diferentes fabricantes, cada uno lo hace un poquito como quiere, pero sí que todos nos regimos por una implementación de características comunes, en función del equipo, por lo tanto cuando para ir fabricantes a hacer un gatekeeper lo pueden hacer mejor, lo pueden hacer peor, lo pueden hacer más completo o menos completo, pero un gatekeeper siempre va a tener que ser capaz de traducir entre direcciones IP y alias, por ejemplo, siempre. Que luego el fabricante X no quiera hacer que el gatekeeper también sea capaz de controlar o de establecer políticas sobre el uso del ancho de banda por cada uno de los terminales. Bueno, pero al menos tiene que resolver, ¿vale? Y tiene que encargarse de cosas como puede ser el control de la admisión. O sea que hay ciertas cosas que establece el protocolo. Muy bien, pues vamos a ir, agenda. Vamos a hablar un poquito de los servidores de medios, y plataformas de conferencias, básicamente de lo que son las unidades de control multipunto, de qué características tienen o qué características han de tener. Luego en la agenda había una, creo, recordad, en las comunicaciones en diferido, era uno de los apartados, ¿vale? Y aquí lo hemos ilustrado con las plataformas de grabación, difusión y soluciones de gestión de contenidos, que pueden estar enlazadas con el mundo de la videoconferencia, si queréis, o integradas. Seguridad y cortafuegos. Un poco lo que hemos visto antes, ¿vale? Pero veremos qué más, a qué otros problemas dan respuesta este tipo de soluciones dedicadas, ¿vale? Porque sí que os he comentado que hoy en día, si tú analizas, digamos, a los tres fabricantes más famosos o más conocidos, no mejores, sino más conocidos, de appliance de seguridad, y te lees las características técnicas de sus appliance, verás que todos dicen H.323 a web. Quiere decir que todos son capaces de inspeccionar a nivel de aplicación el tráfico H.323. Por lo tanto, el problema que os comentaba antes, en teoría, deberían ser capaces de solucionarlo. Por lo tanto, ¿qué aporta que un fabricante de videoconferencia haga appliance de seguridad? Y por último, dentro de los elementos que intervienen en una comunicación audiovisual, los que se encargan de la señalización. No es únicamente de la señalización, sino también de la gestión del resto de elementos. Y como veis, la agenda, yo no voy a hablar de terminales, porque entiendo que eso no os aporta. No os aporta porque al final sabéis lo que hace un terminal y de lo más que podemos discutir, de un terminal, es de si tiene más entradas de vídeo, si tiene más entradas de audio. Ya hemos visto un poco, ya hemos repasado qué protocolos de codificación tienen que implementar. Hemos visto qué resoluciones van a manejar. Aquí veremos alguna cosita de resolución, pero específica al mundo de Polycom. Por lo tanto, yo no os voy a hablar de terminales de videoconferencia. Como si dentro de un curso de telefonía IP, os hablaran del teléfono. Entendía que no os aportaba nada, si me equivoco, me lo decís. Ahí va. Ahí. Muy bien. Pues dentro de las comunicaciones audiovisuales, ya no vamos a hablar de si están utilizando IPs, redes IPs o redes RDSI. Veréis que hago alguna mención esporádica al uso de RDSI, porque aquí de lo que se trata básicamente es de que todos los servicios que nosotros ofrecemos converjan sobre una misma red. Y es la red IP. Creo que eso está bastante claro para todo el mundo. Es decir, hoy en día cualquier servicio que queremos desplegar dentro de la corporación, nos dediquemos a lo que nos dediquemos, sea el negocio crítico o el que sea al que nos dedicamos, lo que vamos a utilizar es una red convergente. Una red que sea convergente, que sí. Y luego sí que evidentemente va a haber que interoperar con el mundo RDSI, por lo tanto el protocolo aquel H320 va a salir por ahí. Pero como algo es casi... En este país aún lo mantenemos mucho, o sea, hay mucho uso residual de RDSI, pero en la mayoría de países de Europa el uso que hacen de RDSI es mínimo. Y menos para comunicaciones de este tipo, porque es caro. Y porque tienen redes de datos potentes. Y no necesitan utilizar RDSI. Por lo tanto aquí RDSI va a salir de manera esporádica cuando hablemos un poquito de gateways. Todo lo demás, IP. Y un poco a nivel arquitectura, bueno, veis los terminales, en el punto central se va a situar sobre todo el elemento gatekeeper, que aparte en el caso de Polycom está integrado dentro de una playa que hace otro tipo de funciones, como podrían ser... reservas de lo que son recursos y de gestión. Dentro del núcleo core, ¿qué más tenemos? Vamos a tener, aparte del equipo que se encarga de la señalización, las unidades de control multipunto, porque ofrecen servicios que se consideran de carácter centralizado. Luego veremos un aspecto que es importante, que es el tema de la virtualización de recursos. ¿De qué tipo de recursos? Precisamente de recursos de unidad de control multipunto. Y luego, en los límites que tenemos, aparte de los terminales, que pueden ser de carácter hardware o de carácter software, elementos que nos permitan grabar este tipo de comunicaciones, elementos que nos permitan organizar y gestionar los contenidos grabados, todo esto pensad que de manera automatizada, ¿vale? De lo que sea fácil es que haya integración entre los diferentes elementos para que estos procesos sean lo más automatizados posibles y haya la mínima intervención por parte del usuario. Y la interacción con entornos no federados. Entornos no federados, es decir, cuando yo quiero hacer comunicaciones audiovisuales contra gente que está fuera en la Internet, en la red pública, de manera segura. En cuanto a unidades de control multipunto, podemos encontrar básicamente de dos tipos. Una es que simplemente hablen IP y que hablen IP y RDS. Aparte de esta primera gran diferenciación, otra es que sean escalables o que no sean escalables. ¿Qué quiere decir que una unidad de control multipunto sea escalable? Que pueda crecer. Es decir, que nosotros empecemos con una serie de recursos y que en un momento determinado, cuando las necesidades de mi corporación aumenten, yo sea capaz de dotar de más recursos a esa plataforma. A eso nos referimos cuando hablamos de escalabilidad en unidades de control multipunto. Pensad que las unidades de control multipunto, como tal, ¿qué hemos dicho que hacían? Se encargan de tratar los diferentes flujos de audio y vídeo que envían los diferentes usuarios y de componer normalmente un formato de presentación que van a enviar de vuelta al usuario. O sea, los usuarios van a enviar audio y vídeo y se les va a devolver audio y vídeo. ¿De quién? Pues o de alguno de los participantes o combinado. El formato de presentación en cuanto al vídeo puede ser de dos tipos. El que conocemos como presencia continua, que es esto que estáis viendo. Es que todo el mundo vea todo el mundo. ¿Qué pasa cuando se hace presencia continua? ¿Qué es lo que hace realmente la MCU? Está cogiendo cada uno de los flujos de vídeo de cada uno de los participantes. Los decodifica, los rescala, conforma una imagen tal que así, porque es rescalado. Imaginad que yo con la MCU, ahora que soy terminal, y con la MCU estoy negociando, estamos utilizando H263, o perdón, H264, y estoy negociando HD Ready, que es el 720p. Imaginaos que yo lo estoy enviando, a la MCU, una imagen en alta definición de 720p. ¿Vale? Que tiene 1280 x 720 puntos de pantalla. Y la MCU me tiene que devolver un formato así, el 720p. Evidentemente lo que tendrá que hacer es coger mi imagen y hacerla más pequeñita. Combinarla con las otras cuatro imágenes, conformar una imagen en 720p, codificarla en H264 y volvérmela a enviar. Para hacer eso, la MCU necesita de recursos hardware dedicados. O de, ah, DSPs. ¿Vale? Que son procesadores dedicados al tratamiento de los medios, del audio y del vídeo. Entonces pensar que en cada una de estas comunicaciones, en cada una, sí, de estas comunicaciones, es decir, si aquí hay cuatro, imaginaos que hay cuatro participantes, ¿vale?, esto provoca un consumo de recursos a nivel hardware directamente sobre la MCU. Y que luego en función de lo que la MCU tenga que hacer con los diferentes trucos de audio y vídeo, va a haber más consumo de recursos o menos consumo de recursos. Por lo tanto pensar que la escalabilidad, muchas veces, va a suponer, no únicamente, ah, añadir el número de, aumentar el número de puntos simultáneos que podemos conectar contra una unidad de control, contra un multipunto, sino aumentar también el número de recursos hardware para que si aquí aumentamos el número de puntos, esto siga cumpliendo sus funciones de codificación, decodificación. O sea que cuando penséis en escalabilidad, no penséis únicamente en, ah, para mí escalar es tener una MCU que es capaz de tener ah, quince participantes simultáneos y escalar significa tener una MCU que tiene capacidad para veinticinco participantes simultáneos. Eso es escalabilidad, pero pensar en lo que eso va a requerir recursos hardware normalmente adicionales. En función de la arquitectura de la plataforma, va a depender, cada fabricante lo va a implementar de una manera diferente. Normalmente va a requerir recursos hardware. Vale, bien. Que sepáis que hay unidades de control multipunto las cuales no va a ser posible escalar en hardware porque son plataformas cerradas, porque tienen un precio de venta en mercado muy económico y tienen una escalabilidad limitada. El que el hardware implementado da. Cosas importantes. Ehm... ¿Quién debe tener una MCU? O normalmente ¿qué se le pide? Que es una cosa que casi todas las MCU que hay en el mercado implementan. Un Interactive Voice Response. ¿Qué es eso? Cuando nos conectamos contra una unidad de control multipunto podemos conectarnos directamente a una reunión o podemos conectarnos a lo que se conoce como una cola de entrada, que es como una especie de lobby donde los participantes esperan antes de ser conectados contra una reunión. En ese lobby normalmente la MCU te ofrece una... es una lo diré, diapositiva de bienvenida es decir, un vídeo de bienvenida personalizable y unos mensajes interactivos de voz o unos mensajes de voz de bienvenido. Bienvenido al... a la MCU de la UNED espere a que se le conecte con la reunión X. Luego el IVR sirve también porque nosotros somos capaces de interactuar como participantes con la unidad de control multipunto y es que muchas veces mediante el envío de tonos de TMF es decir, si yo marco algo por ejemplo un código que la MCU es capaz de entender por ejemplo... ¿estamos con la cocia? Pues no me lo sé. Eso no me lo sé. Bueno, la cosa es que tú puedes enviar tonos de TMF que provocan que la unidad de control multipunto le dice una respuesta como por ejemplo podrías iniciar la grabación de esta sesión desde el mando a distancia enviando tonos de TMF contra la unidad de control multipunto en ese momento la unidad de control multipunto te devolvería un mensaje del tipo ¿se ha iniciado la grabación? O sea que existe interactividad entre los participantes y la unidad de control multipunto Otra cosa muy importante es que la unidad de control multipunto ha de ser capaz de tener un mecanismo de recuperación de errores Por ejemplo, estábamos hablando aquí de plataformas que únicamente hablan IP por lo tanto es una unidad de control multipunto que sólo va a dar al servicio a terminales que estén en redes IP modo datagrama paquetes desordenados se pueden perder paquetes la pérdida de paquetes en el tráfico en tiempo real es fatal por lo tanto necesitamos implementar un mecanismo en caso de que se pierdan paquetes si os acordáis del stack de H.323 que había un protocolo que se llamaba RTCP Real Time Control Protocol que lo que decíamos es que monitorizaba las sesiones en tiempo real monitorizaba el retardo, la variación del retardo y la pérdida de paquetes cuando ese protocolo detecta que hay demasiada pérdida de paquetes y que eso puede afectar a la calidad de vídeo y audio que los usuarios estaban percibiendo ponen en marcha mecanismos de recuperación de errores En el caso de Polycom se llama RTCP esto es muy importante que lo implemente una unidad de control múltiple luego que implementen mejoras como podrían ser protocolos de audio en alta definición o que sean capaces de codificar el contenido que de esto no hemos hablado hasta ahora pero bueno, en H.264 y es que sabéis que cuando establecemos una videoconferencia somos capaces de enviar un flujo dual de vídeo de contenido es decir, somos capaces de enviar el flujo de las personas que normalmente es el que capta la cámara más un flujo dual que es de una fuente adicional de cámara normalmente suele ser el PC pero puede ser una segunda cámara o un DVD escalabilidad hay plataformas cerradas de hardware como la que estábamos viendo hasta ahora que tiene una escalabilidad mínima bueno a nivel de especificaciones que tienen que cumplir básicamente si es una plataforma IP H.323 H.235 para qué para encriptar los flujos de comunicación vale H.281 que también está recogido bajo el paraguas de H.323 lo que pasa que antes no lo hemos mencionado que es el Fallen control cámara que lo que permite es el control de cámara distante es decir, que yo desde aquí pueda controlarle la cámara al equipo remoto H.239 que es el que nos va a permitir establecer o enviar flujos duales de vídeos es decir, enviar las personas más enviar otro flujo que puede ser o bien el PC o una cámara adicional y luego otro tipo de protocolos como pueden ser HTTP, DHCP los estándares de vídeo que hemos comentado los estándares de audio que hemos comentado más algunos que no hemos comentado en este caso este es propietario del Policom y lo que permite es obtener una señal de audio codificada de alta definición o de alta fidelidad las resoluciones de vídeo y la transcodificación quiere decir ¿qué es el transcoding? un poco antes al principio y es que yo soy la MCU y tengo que comunicar participantes que están hablando de diferentes protocolos o diferentes normas de codificación de audio y vídeo si no hay transcoding por ejemplo, imaginaos que este señor habla 711 y H.261 porque es un dispositivo antiguo este está hablando G.329 y H.264 si este señor no es capaz de codificar, es decir coger el audio y el vídeo que llega a esta parte convertirlo en lo que este señor entiende estos dos equipos no se pueden comunicar en el caso de que este no implementara esto hemos dicho que si habla H.323 es todo en mandato vale lo que os comentaba de los Packet Recovery una técnica de recuperación de errores que lo que permite es este tipo de efectos minimizarlos muy importante los CDR algo que también toma importancia en las unidades de control multipunto ¿qué son los CDR? o en cualquier sistema que se encargue de gestionar comunicaciones ¿vale? los CDR como su nombre indica son los Quality Reports son los informes de todas las llamadas establecidas ¿a qué hora se han establecido? ¿entre qué IPs? ¿qué protocolo de vídeo se ha negociado? ¿qué protocolo de audio se ha negociado? ¿cuánto ha durado la comunicación? ¿por qué se ha liberado? y en el por qué se ha liberado ¿os acordáis antes que hemos hablado del Q9331? que os he dicho que era un protocolo de RDSI Q9331 establece las causas de desconexión desconexión normal y es que uno de los dos extremos ha liberado la conexión o fallo de red o ha desconectado el remoto por lo tanto es muy importante que una unidad de control multipunto que una unidad de control multipunto guarde un registro de todas las llamadas que ha cursado ¿por qué? porque en un momento dado podemos utilizar esta información aparte de para hacer troubleshooting pues por ejemplo para someterla a aplicaciones de tarificación vale hemos hablado de la escalabilidad en las unidades de control multipunto y hemos dicho que hay plataformas y que por lo tanto solo son escalables en cierta medida mediante licencias software y luego hay plataformas que son modulares que tienen una escalabilidad mucho más alta porque nos permiten en un momento dado si queremos aumentar los recursos añadir hardware para aumentar en recursos multipunto es decir el número de participantes simultáneos plataformas modulares en este caso hay una plataforma Polycom que es la unidad de control multipunto que se llama RMX2000 que es modular y entre sus módulos lo que tiene son los media processing modules son al final las tarjetas que tienen los DSPs ¿y qué son los DSPs? son los chips de carácter dedicado a la codificación y a la codificación del audio y el vídeo por lo tanto no va a pasar por estas tarjetas evidentemente las prestaciones de esta unidad de control multipunto en cuanto a tratamiento de audio y vídeo son mejores que las de una pequeñita que solo es IP que simplemente es escalable por software porque podemos aumentar capacidad de la plataforma añadiendo placas de hardware y aparte en este caso esta plataforma la anterior habíamos comentado que era únicamente IP que era un módulo de eUNOS para que aparte de hacer de funcionalidad gateway puede hacer funcionalidad de gateway por lo tanto tenemos dos funcionalidades combinadas en una misma plataforma hardware cuando durante todo el rato que llevamos hablando siempre habíamos pintado dos cajas diferenciadas pues que sepáis que a nivel mercado esto es bastante común es que en una misma caja te encuentras las dos funcionalidades y la DNC que sepáis que hay ciertos estándares de diseño hardware en la industria uno podría ser el ATCA y de lo que se encargan estos estándares hardware es básicamente establecer un protocolo para la construcción de plataformas modulares con qué finalidad con la finalidad de establecer plataformas que tengan un middle plane imaginaros que esto es una plataforma modular que tiene unos módulos frontales y unos módulos posteriores normalmente los módulos frontales tienes lo que es inteligencia procesado y en los módulos posteriores lo que tienes son interfaces donde conectas los latiguillos entre medio hay una cosa que se llama middle plane que al final no deja de ser buses de alta velocidad los módulos frontales y los posteriores pues lo que establecen este tipo de estándares son arquitecturas para crear plataformas de nueva generación con buses de alta velocidad que admitan aplicaciones de uso futuro como podrían ser la alta definición vale y aparte lo que permiten es también estandarizar los módulos para que a la hora de llevar estas plataformas al mercado se puedan disminuir los costes es decir, si yo estandarizo las dimensiones que tienen que tener los módulos de alguna manera estoy haciendo una norma para que varios fabricantes de placas puedan fabricar módulos para plataformas de este tipo de alguna manera lo que hago es que los productos a nivel precio sean más competitivos en el mercado en el caso de esta plataforma una cosa que también es importante tiene un módulo de autogestión ¿qué quiere decir eso? es un módulo independiente que monitoriza el estado del hardware durante todo el tiempo ¿qué quiere decir eso? tiene un módulo de autogestión y luego tiene el módulo de control que lleva el disco duro, la CPU, etc si el módulo de control peta yo siempre voy a poder conectarme al módulo de autogestión a ver qué es lo que ha pasado el módulo de autogestión básicamente lo que hace es monitorizar se llama módulo de self management porque se automonitoriza es capaz de guardar récords de guardar informes que si hay cualquier problema que de alguna manera deja fuera de combate a la plataforma yo puedo seguirme conectando a ella al módulo de autogestión otra cosa importante en una plataforma modular veis lo que os comentaba el módulo de self management es completamente independiente con lo cual si yo tengo algún problema con el módulo de control algo más importante de las plataformas modulares es que los módulos sean reemplazables y reemplazables en campo y reemplazables en caliente de manera que si yo tengo algún problema con alguno de los módulos lo pone en campo el módulo defectuoso la descripción del hardware no voy a entrar cosas que podríamos comentar evidentemente la tarjeta de control lleva aparte de una compact flash ¿para qué? ¿qué pensáis que una unidad de control multipunto agrava en el disco duro? la programación de salas que es lo que conocemos las reservas sobre una unidad de control multipunto yo puedo programar una reserva un uso el miércoles a las 10 de la mañana quiero que llames a estos 5 equipos a 384 este tipo de información se guarda en el disco duro otra cosa que se guarda en el disco duro CDR los informes ¿y cómo sería accesible el safe management? ¿cómo? la tarjeta supervisora ¿cómo accedería a esa información? al CDR no accede lo que accede es a la monitorización de cada uno de los elementos de hardware fíjense que el safe management de lo que te sirve es monitorizar una cosa es monitorización y otra cosa es informe o reporte de uso mal si se te jode el disco duro hay lo único que puedes es intentar recuperar la información en el disco duro en un momento dado si te ha petado o hacer backup de los CDR lo que hablábamos antes de la virtualización de recursos esto es importante esta mañana os han dado una charla sobre virtualización que los recursos multipunto las unidades de control multipunto también se pueden virtualizar ¿qué supone para mi virtualizar las unidades de control multipunto? primero crear una arquitectura altamente tolerante contra fallos es decir para mi como usuario me tiene que dar igual el uso de una unidad de control multipunto o otra para mi es transparente yo a la red lo que le pido como usuario es una serie de servicios y la red me los proporciona a mi si esos servicios están alojados aquí en Ponferrada o están alojados en Coruña como usuario da igual lo único que quiero es que los servicios tengan las características que yo como usuario necesito muy bien imaginaros una situación en la que tenemos una arquitectura de unidades de control multipunto distribuida porque hacemos un uso de recursos multipunto intensivo es decir que tenemos mucha necesidad de recursos multipunto y en un momento dado establecemos o usamos a tres unidades de control multipunto físicas diferenciadas y que aparte como somos muy buenos y tenemos un centro de contingencia una de ellas las tres las ponemos en dos centros separados sin nada que gestione eso yo como administrador si se me cae una unidad de control multipunto sobre la que tenía programadas conferencias programar todo eso sobre otra de las unidades de control multipunto que tengo disponibles lo que podemos hacer para virtualizar esos recursos multipuntos es establecer un nivel de inteligencia superior que se va a encargar de dos cosas primero monitorizar el estado vital de mis unidades de control multipunto es decir va a mirar cada una de las plataformas físicas es accesible no solo eso sino que también va a monitorizar el uso de recursos que estoy haciendo en cada una de mis plataformas para que cuando un usuario haga una reserva en lugar de venir directamente a atacar a una unidad de control multipunto va a atacar en lugar de venir a atacar a una unidad de control multipunto va a venir a nivel de inteligencia superior es decir necesito conectar a 10 usuarios simultáneos y este nivel de inteligencia superior puede utilizar diferentes criterios a la hora de escoger la unidad de control multipunto que va a alojar esta conferencia con 10 usuarios el primero podría ser localización geográfica y es que para mi por cuestiones de contención del uso de ancho de banda si el usuario que está pidiendo esos 10 recursos de videoconferencia esos 10 usuarios conectados en una reunión está en Ponferrada y yo tengo una unidad de control multipunto lo normal sería que viniese aquí imaginemos que el usuario de Ponferrada requiere de una conexión para 10 usuarios pero la MCU de Ponferrada no tiene recursos suficientes porque está alojando una unidad de reuniones y no tiene recursos lo que va a hacer este nivel de inteligencia superior es, no tengo recursos suficientes aquí pues miro en qué unidad de control multipunto tengo recursos suficientes para alojar esa reunión o es más incluso puedo alojar unos cuantos usuarios aquí por cuestiones de contención del ancho de banda por ejemplo 5 usuarios aquí y poner 5 usuarios en la unidad de control multipunto de la coruña y de manera automática generar el enlace entre las dos unidades de control multipunto para que estos 5 usuarios y 5 usuarios tengan la sensación de estar en la misma unidad de control multipunto el usuario va a ser transparente ¿qué pasa si de repente yo tenía una reserva programada en esta unidad de control multipunto y resulta que he tenido un problema en el data center y dejar estar disponible automáticamente este nivel de inteligencia superior lo que va a hacer es coger esta reserva y ponerla en una unidad de control multipunto que esté disponible por lo tanto estamos virtualizando los recursos multipunto porque para nosotros es independiente o es indiferente quién aloje nuestra reunión siempre vamos a tener una arquitectura que nos va a permitir dar servicio siempre a los usuarios en caso de caída en caso de digamos sobreutilización de recursos de una de las unidades de control multipunto eso se hace mediante estableciendo un nivel de inteligencia superior que hace que esto sea transparente lo único que ves es un pool de recursos y yo en función de ciertos criterios que son programables puedo distribuir las reuniones bueno a las ventajas modulares... disculpad desde Coruña nos tenemos que ir vale un placer hasta luego vale las ventajas de una arquitectura modular frente a una arquitectura digamos en una única caja reemplazar partes en campo sobre todo la escalabilidad importante también es que la unidad de control multipunto que tiene unos recursos hardware que le va a permitir tratar diferentes tipos de flujos de audio y vídeo haga un uso de estos recursos flexible vale ya lo explico en el mercado existen fabricantes que hacen plataformas modulares también pero que por ejemplo si tu compras una tarjeta que hace alta definición y que tiene un coste X si luego con esa tarjeta llevas a cabo comunicaciones en definición estándar resulta que el precio por conexión en definición estándar tiene un coste muy elevado porque lo que hacen es asignación fija de recursos es decir yo compro una tarjeta que es capaz de hacer alta definición pero los recursos hardware que utilizo para hacer alta definición con esa tarjeta o para hacer definición estándar son los mismos con lo cual si yo utilizo una tarjeta de alta definición para hacer definición estándar estoy perdiendo pasta por tanto es importante que la unidad de control multipunto tenga una asignación flexible de recursos es decir que tenga un número de recursos y que en función de si estamos utilizando alta definición o definición estándar haga una asignación dinámica de recursos hemos comentado de la escalabilidad vale eso también es importante en cuanto a la alta definición si compramos una plataforma o si una de las necesidades que tenemos a la hora de adquirir una plataforma o una unidad de control multipunto es la alta definición que tengamos diferentes opciones en cuanto a la alta definición fijaros lo que hemos comentado antes de los 60 campos por segundo y es que sin aumentar la resolución de la información que enviamos eso tiene sentido cuando es una información con movimiento si estamos enviando contenido estático aumentar el número de campos por segundo realmente no hace que el usuario tenga una percepción mejorada de la calidad y luego si ya queremos ir a tope vale pues vamos a full hd es el 1080 pero hay una cosa sobre el full hd que parece que como el media market vende teles full hd pensar que el ojo humano no es capaz de diferenciar entre el hd ready o el full hd si no estamos utilizando una pantalla de mas de 60 pulgadas fijaros que por eso tengo otra diapo donde el full hd se ilustra con una pantalla de proyección porque si tu estas mostrando full hd osea si tu muestras dos teles de 30 pulgadas con full hd y con hd ready no vas a ser capaz de establecer la diferencia vale otra cosa que es importante que implementemos en las unidades de control multipunto son algoritmos de interpolación y es que yo sea capaz de rescalar la resolución que estoy recibiendo de uno de los participantes un nivel si por ejemplo yo tengo un participante que me envía resolución cil y el resto de participantes me envía 4 cil resulta que la resolución la imagen que yo le estoy enviando de este participante al resto es inferior que lo que ellos pueden recibir entonces lo que me interesa es que la unidad de control multipunto sea capaz mediante algoritmos de interpolación de video añadiendo muestras de rescalar esa resolución mala un nivel para que los usuarios que son capaces de recibir y enviar 4 cil se sientan mejor al usuario que solo puede enviar resolución cil evidentemente que sea la unidad de control multipunto ha de ser capaz de hablar formatos panorámicos como podría ser el 16.9 vale hasta el día de hoy las técnicas de codificación y de compresión que se utilizaban de manera digamos homogénea en el mercado lo que hacían era que normalmente tu pudieras establecer una comunicación en definición estándar a partir esto no es del todo real a partir de 256 kilobits por segundo que pudieras empezar a negociar el HD ready que es 720p a partir de aproximadamente un megabit por segundo y que pudieses negociar el Full HD el 1080p a partir de 2 megabits por segundo hay un fabricante cuyo nombre empieza por p que lo que ha conseguido es implementar un algoritmo de codificación que permite mejorar la resolución reduciendo el ancho de banda por lo tanto existe en el mercado una técnica de codificación que se llama profile que lo que permite es esto fijaros enviar definición estándar 4 cif desde 128 kilobits por segundo frente a los 256 del resto del mercado eso es reducir el 50% el ancho de banda necesario para enviar la misma resolución y aquí quizá no está lo sorprendente lo sorprendente está y es que si somos capaces de enviar HD ready o alta definición desde 512 kilobits por segundo cuando el resto de códices del mercado necesita 1 megabit por segundo eso en un país como el nuestro creo que es un hito bastante considerable sobre todo teniendo en cuenta lo que pagamos el ancho de banda quizá no en el caso de las universidades pero si en el entorno industrial como accedemos a una reunión alojada por una unidad de control multipunto hay diferentes métodos para acceder a ellas pensar que estamos hablando de H323 si estamos hablando de RDSI básicamente lo que vamos a marcar es un número de RDSI os acordáis de la cola de entrada del IVR, el primero es yo llamo a la IP de la unidad de control multipunto y me salta un interactive voice response un mensaje interactivo de voz que me dice marque la reunión contra la que se quiere conectar mediante tonos de TMF y a partir de ahí igual tenemos que marcar contraseña o tenemos que marcar contraseña para ser moderador es decir, para tener unos permisos de administración superiores que el resto de usuarios que se van a conectar permisos de administración a los que accederemos por tonos de TMF como por ejemplo, yo como moderador de una reunión puedo decidir, utilizando mi mando a distancia poner inmunidad a todos los participantes vale sería básicamente el mismo método de conferencias y haceros directamente accediendo a la conferencia fijaros, que la conferencia normalmente es decir, la conferencia o la reunión está representada por un alias yo como equipo de videoconferencia si marco mil yo hablo IP pero acordaros hemos dicho que había una entidad que se encargaba precisamente de la resolución entre los alias numéricos o alfanuméricos que era algo que el usuario de alguna manera podía manejar de manera más sencilla que las direcciones IP pues en este caso el gatekeeper cuando un equipo de videoconferencia marca mil va a ser el encargado de ver que mil corresponde a una reunión que está creada dentro de la unidad de control multipunto y este es el caso análogo a los servicios de gateway que os comentaba al principio ahora un poquito de grabación y difusión vale ¿de qué va esto? hemos hablado de comunicaciones audiovisuales interactivas y en un momento dado nos puede surgir la necesidad de ser capaces de ofrecer comunicaciones audiovisuales pero sin interactividad básicamente yo emito una difusión a la que quiero que una serie de usuarios se conecten eso como queda ligado con el mundo de la videoconferencia en este caso hay unos equipos que lo que permiten es grabar las sesiones de videoconferencia al final pensar que son una appliance que se comporta como un equipo de videoconferencia más porque lo que hace es capaz de entender el formato nativo en h323 lo que hacen estos equipos es capturar el vídeo en la norma h que sea o sea codificado en h261 h263 o h264 y el audio en la norma g que sea capturan ese formato nativo de medios y son capaces de transcodificarlo en línea para su difusión en directo o de transcodificarlo y almacenarlo para su acceso en vídeo bajo demanda o a posteriori y eso es lo que hacen los grabadores muy bien y diréis vale si muy bien y porque que sentido tiene que guarden el flujo en formato nativo lo hacen ellos transcodifican un formato streaming como podría ser un formato de windows pero siguen guardando el flujo nativo para que se pueda acceder a ese contenido grabado desde un equipo de videoconferencia muy bien cuáles son las características de los grabadores pues normalmente tienen una serie de sesiones de grabación concurrentes que pueden grabar que puede escalar en el caso de Polycom de 5 a 15 y luego escalan en cuanto a los usuarios de streaming que pueden acceder tanto a ver contenido en directo como contenido en diferido pueden grabar tanto sesiones de un único punto es decir que yo desde un equipo de videoconferencia quiero grabar un mensaje llamo al grabador como sesiones punto a punto como sesiones multipunto como la que estamos haciendo ahora y implementan también IVRs vale para que? cuando accede al grabador se le notifique de que esta accediendo al grabador y que va a ser grabado y implementan otra serie de características como por ejemplo que puedan hacer backup de los contenidos grabados vale que acepten medios encriptados etc luego lo importante es que a su vez estén integrados con otros equipos que de lo que se van a encargar es de la organización de los contenidos la organización y la gestión de los contenidos vale de manera que esos equipos grabadores sean capaces de manera automatizada de poner contenidos en equipos que son considerados servidores de streaming de carácter profesional y que lo que hacen es organizar los contenidos en la manera en la que una empresa de broadcasting profesional lo haría que es la típica organización de canales contenidos programas tengo un canal dentro del canal tengo contenidos y dentro de cada contenido programas aparte de evidentemente organizen la información pues sean capaces de gestionar en el sentido de añadir información o enriquecer los contenidos de vídeo con contenidos adicionales como pueden ser documentación o información o urls lo que sí es importante es que esto sea un proceso automatizado es decir, que el hecho de publicar contenidos de vídeo por ejemplo, lo que podrían ser reuniones de videoconferencia no se convierta en un infierno para los administradores de sistemas sino que sea un proceso automatizado seguridad de cortafuegos ¿a qué quería llegar? vale, ¿qué hemos visto antes? el problema que tenía H323 cuando atravesábamos un cortafuegos cuando sometíamos el tráfico H323 a la traslación de direcciones casi todos los fabricantes que se dedican al negocio de seguridad han desarrollado appliance que son capaces de entender el tráfico H323 por lo tanto, inspeccionan el tráfico H323 a nivel de aplicación con lo cual, son capaces de ver que en la fase H245 se están intercambiando direcciones privadas y hacer la traducción de esa dirección privada a la dirección pública del NAT de manera que el tráfico se cursa de manera correcta entonces ¿qué sentido tiene que los fabricantes de videoconferencia desarrollemos cortafuegos transversales o cortafuegos de propósito dedicado? bien el primero es que los firewalls van a ser capaces de pasar NAT perdón van a ser capaces de procesar el H323 pero, ¿qué va a pasar por ejemplo cuando ese H323 esté encriptado? van a ser capaces también de interpretarlo como tráfico H323 ¿y qué pasa si yo como organización quiero que de cara al mundo exterior a internet todo mi parque de videoconferencia sea accesible mediante un punto de demarcación único? me explico imaginaos, yo soy una corporación y tengo 50 equipos de videoconferencia si yo no pongo un cortafuegos de carácter dedicado ¿qué me supone a mí a publicar esos 50 equipos de videoconferencia en internet? establecer 50 traslaciones estáticas en mi firewall de un chorro de puertos que son todos los puertos necesarios que yo necesito para establecer una comunicación en H326 a través de un firewall ¿qué puedo hacer? puedo utilizar un cortafuegos de carácter dedicado que me va a permitir únicamente publicar un IP ¿qué va a hacer este cortafuegos de carácter dedicado? va a tener todos los puertos cerrados el único puerto que va a tener abierto es un puerto que hemos mencionado antes es el puerto de Rask, es el 1720 de manera que cuando yo este cortafuegos dedicado reciba una conexión en ese puerto y vea como es capaz de interpretar está optimizado para entender el tráfico H323, va a ver que es una conexión de videoconferencia va a abrir de manera dinámica el resto de puertos necesarios para que esa conferencia tenga lugar ¿y cómo resuelvo yo el hecho de tener una única IP pública contra 50 equipos? hemos dicho antes que a mi en H323 podíamos gestionar una cosa que se llamaba alias este cortafuegos dedicado lo que va a poder hacer es que se le llame a la IP pública es decir, la gente de fuera me va a llamar a mi IP pública más mi alias la IP pública para los 50 equipos siempre va a ser la misma lo único que va a ser de alguna manera diferente para los 50 equipos cada equipo de videoconferencia va a tener una alias asignada ese alias ¿quién lo resuelve? el gatekeeper entonces, el cortafuegos va a hablar con el gatekeeper para ver a qué IP privada corresponde este alias en algunos casos, como en el caso de Polycom el cortafuegos lleva embebido un gatekeeper por si la empresa no hay implementación de gatekeeper pues poder dar esta funcionalidad es del propio cortafuegos aparte, bueno implementan características de calidad de servicio y es que yo puedo marcar los paquetes IP para que los que sean de tráfico en tiempo real sean procesados de manera más rápida no hemos hablado de la calidad de servicio básicamente ya por último vamos a hablar un poquito del víctima el gatekeeper ¿vale? hablamos un poquito del gatekeeper ya os libero vale, ¿qué funcionalidades cumple el gatekeeper dentro del ecosistema de videoconferencia aparte del que ya sabemos que era relacionar alias, que era un formato de direccionamiento que el ser humano era capaz de manejar de manera sencilla y direcciones IP una cosa que es el control de admisión es decir, cuando dos equipos en una red de videoconferencia una red IP donde existe un gatekeeper quieren llamarse lo primero que se les va a preguntar es al gatekeeper si esa comunicación está permitida eso es lo que conocemos como control de admisión es decir yo en un gatekeeper puedo definir qué políticas de llamadas están permitidas y cuáles no por ejemplo, yo soy pertenezco a la red de videoconferencia y tú perteneces a la red de videoconferencia y yo tengo un elemento gatekeeper contra el que estoy registrada vale, yo puedo decir por ejemplo como política es cualquier equipo que me llame que no esté registrado contra mi no puede pulsar una llamada para que lo entendáis la siguiente ¿por qué puede hacer esto el gatekeeper? porque fijaros que es lo que hace se caga de la parte de señalización de h323 otra cosa que hacen los gatekeepers aparte de la resolución de alias y del control de admisión es establecer políticas de uso de ancho de banda en función de los usuarios es decir, yo por ejemplo puedo definir que los usuarios que pertenecen a cierta subnet solo pueden hacer llamadas entre sí a 128 o que los usuarios entre esta subnet y esta subnet se pueden llamar a 256 es decir, puedo establecer qué uso del ancho de banda están utilizando cada uno de mis terminales luego me encargo de ofrecer servicios de tipo avanzado como por ejemplo ¿os acordáis de cuando yo os hablaba de los perfiles de gateway? si uno de los perfiles identificado con un prefijo me determina cómo se van a realizar las llamadas de IP, RDSI que yo haga se van a hacer a 128 se van a hacer a 384 antes hemos dicho que para un terminal podía marcar 80 para hacer una llamada 80 más el número de RDSI para hacer la llamada 128 o 90 más el número de RDSI establezco la velocidad de llamadas del terminal y el gatekeeper enviándole ese parámetro 0 y la velocidad de llamada a la que yo quiero llamar va a escoger por mí el perfil de gateway que tengo que utilizar los gatekeepers pueden hacer más cosas la implementación de características que cada fabricante hace en el mercado establecer rutas de menor coste es decir yo tengo diferentes caminos para establecer la comunicación entre dos terminales y como gatekeeper puedo decidir por dónde voy a pulsar la comunicación y yo creo que dada la hora que es y las caritas que tenéis pues hasta aquí habíamos llegado no tengo ningún hallazgo de questions and answers de preguntas y respuestas pero vamos la pinto no? ninguna pregunta? ninguna inquietud? no? pues nada muchas gracias por aguantar estoicamente