Monday 30 October 2017

Red Del Sistema Comercial


Red neuronal La red neuronal es una de las palabras de moda más recientes en el comercio. Suena fresco y sofisticado. No demasiadas personas parecen entender lo que son las redes neuronales. Neuronas en el mundo real Nuestros cerebros son fenomenalmente complicados. Lo que más sorprende a la mayoría de las personas, sin embargo, es que el cerebro es más o menos una enorme caja de circuitos. Las neuronas son células que actúan como circuitos con cables eléctricos, llamados axones, que se extienden y se conectan a través del cuerpo humano. Cada movimiento, percepción o acción que haces es la suma de todos los axones disparando impulsos eléctricos. El cambio ocurre cuando la frecuencia de los impulsos eléctricos enviados desde la neurona varía. Más impulsos causan una reacción, una reducción causa otra. Las redes neuronales intentan emular procesos del cerebro humano organizando información en las neuronas. A diferencia de las neuronas reales, una neurona de red sólo existe en la máquina. Es un peso de máquina que contiene información sobre lo que está bajo estudio. Una red neuronal para un sistema comercial podría decidir estudiar indicadores comunes como un promedio móvil, el RSI y el oscilador estocástico. El valor promedio móvil para la barra actual cuenta como su propia neurona. El RSI es diferente, por lo que llega a ser una neurona independiente. Si tengo diez indicadores en mi caja de herramientas, entonces tengo 10 neuronas en mi red. Las computadoras tradicionalmente resuelven problemas lineales y sencillos. Si desea conocer el resultado de operaciones matemáticas como la raíz cúbica de 355, las computadoras son perfectas para la tarea. Calculan rápidamente una respuesta precisa. Al igual que en el cerebro humano, las redes neuronales forman sinapsis con otras neuronas. Cuando están entrenados, grupos de neuronas pueden aprender a reconocer patrones. Es esta propiedad la que hace que las redes neuronales sean tan útiles. Esto nos permite crear programas que serían imposibles con la informática tradicional. Crear un programa de software para reconocer una cara, por ejemplo, sería extremadamente difícil. Es mucho más fácil entrenar una red para reconocer una cara mostrando repetidamente las caras de la red. El cerebro es un tema fascinante por derecho propio. Como un aparte, mi esposa y yo estamos tomando un curso de encuesta en neurociencia a través de una serie de videos de Los Grandes Cursos. Si usted tiene algún interés en absoluto en el tema, recomiendo altamente la comprensión del cerebro por Jeanette Norden. Cubre en detalle cómo las neuronas conectan con la anatomía a través del cerebro y del cuerpo entero. Redes neuronales y Forex Trading Las redes neuronales entran en juego cuando la respuesta no es tan precisa. Siguiendo con este tema de los blogs de comercio de divisas, no hay una respuesta correcta a lo que hace que el sistema de comercio perfecto. Un típico inversor minorista podría decir que el mejor sistema de comercio es el que hace más dinero. Otro podría decir que el mejor sistema de comercio es el que tiene la mayor proporción de Sharpe. Muchos quieren algo en el medio. El mejor problema del sistema comercial es ambiguo, lo que lo convierte en un candidato ideal para atacar con redes neuronales. El diseñador esboza conjuntos de reglas que, a juicio de los comerciantes, forman una forma numérica de medir el mejor sistema. Los cerebros humanos albergan aproximadamente 100 billones de neuronas. A pesar de los mejores esfuerzos de muchos de nuestros clientes, todavía no he conocido a nadie con 100 millones de indicadores de mercado a su disposición. Una forma de amplificar el efecto de las neuronas en nuestra caja de herramientas es crear capas ocultas. Una red está formada por múltiples capas, cada una formada por múltiples neuronas. Cada neurona está conectada a cada neurona en la siguiente capa. Cada conexión lleva entonces su propio valor ponderado único. Una neurona transmitirá su valor multiplicando el valor de la neurona y por el peso de la conexión saliente. La neurona al final de la conexión saliente sumará todas sus conexiones entrantes y propagará ese resultado a la siguiente capa a través de todas sus conexiones salientes. Las imágenes hacen que la idea sea mucho más intuitiva. La figura 1 contiene un pequeño ejemplo. Los 2 y 3 a la izquierda son las entradas en la red. Estas entradas se multiplican por el peso de la conexión a la siguiente capa. El 2 se multiplica por 0.5 dándonos 1 y 3 por 2 dándonos 6. La segunda capa contiene un nodo que resume los resultados de la capa anterior, dándonos 7. El siguiente paso sería multiplicar 7 por los pesos en Las conexiones salientes y pasarlo a la siguiente capa. Figura 1: Un ejemplo de una red neural que propaga los resultados hacia delante. El ejemplo corto anterior se puede repetir y encadenar juntos para formar una red más grande. Abajo, en la Figura 2, tenemos un ejemplo de una red más grande. La red de ejemplo tiene 3 entradas que están conectadas a una capa oculta. La capa oculta se conecta a una sola salida. Las capas ocultas son para facilitar el entrenamiento. Cuanto más complejo es el problema, más capas y nodos necesitan. Figura 2: Un ejemplo de una red neuronal más grande. La red aprende actualizando los pesos de sus muchas conexiones. Hay muchos algoritmos de software que se utilizan para lograr el aprendizaje en redes neuronales. Se dividen en dos categorías: aprendizaje supervisado y aprendizaje no supervisado. El aprendizaje supervisado se logra con el usuario diciendo a la red si sus predicciones son correctas o no. La red entonces calcula su error y utiliza uno de los algoritmos para corregir el error. Un ejemplo de esto es la propagación inversa, que calcula el error de una predicción de redes. La red utiliza un algoritmo rápido para actualizar cada uno de los pesos de conexión con ese error. La propagación inversa es una de las estrategias de entrenamiento más comunes. El aprendizaje sin supervisión utiliza algún tipo de aptitud o algoritmo de puntuación en el que la red se anotará y tratará de mejorar cada intento subsiguiente. Un ejemplo de entrenamiento no supervisado es el algoritmo genético. Este algoritmo crea una población de redes neuronales y utiliza un algoritmo de puntuación diseñado por el usuario para clasificar la población. Después de eso, es la supervivencia del más apto. Las redes de alto rango consiguen quedarse y reproducirse y el fondo clasificado es expulsado. Las redes se reproducen mezclando y combinando pesos de conexión. Las redes neuronales pueden ayudar sustancialmente a los operadores de sistemas en su diseño de algoritmos explorando miles de millones de combinaciones entre una caja de herramientas relativamente pequeña de indicadores. Esto difiere de la optimización estándar, que consiste en conectar los números a varios indicadores buscando cualquier combinación que devuelva más dinero. El hecho de que las redes puedan considerar múltiples medidas (balance, Sharpe Ratio, etc) para determinar el mejor sistema de comercio ayuda a reducir la probabilidad de que exagera una medida en particular. Un buen ejemplo de esto es el balance de la cuenta. Si un sistema pesa el dar y recibir entre el retorno neto y el retorno ajustado al riesgo, comienza a alejarse del número crujido para descubrir los mejores números para usar y dirigirse hacia el aprendizaje real y el reconocimiento de patrones. Las redes neuronales están demostrando ser muy útiles en una amplia gama de aplicaciones, desde el reconocimiento facial hasta las predicciones del mercado de divisas. Ellos sobresalen donde hay patrones que son difíciles de reconocer. Esa habilidad hace que las redes sean muy valiosas para resolver problemas difíciles que involucran múltiples variables. Dejar un comentario Cancelar la respuesta TRADING SYSTEMS Creación de un sistema de trading con redes neuronales El aprendizaje automático se ha vuelto increíblemente popular durante la última década con la llegada de mejores algoritmos y suficiente potencia computacional para abordar incluso los problemas más exigentes. Hoy en día algoritmos de aprendizaje de la máquina de resolver problemas en muchas áreas donde las relaciones complejas entre las variables se presenta y esto hace que el aprendizaje de la máquina una herramienta potencialmente viable para la creación de estrategias comerciales. Pero cómo podemos crear un sistema de comercio utilizando este tipo de tecnología En este artículo vamos a aprender a utilizar un algoritmo básico de aprendizaje de máquina ndash llamado un ndash de redes neuronales para crear un sistema de comercio simple en el EUR / USD. Todos los fragmentos de codificación son muestras tomadas de nuestro marco de programación F4, disponible en Asirikuy. La biblioteca de código abierto Shark se utiliza para la creación y entrenamiento de los algoritmos de aprendizaje de máquina. Sin embargo, las ideas generales y las nociones algorítmicas presentadas en este artículo pueden traducirse a otras bibliotecas y lenguajes de programación. Qué es una red neuronal Una red neuronal es un tipo de algoritmo de aprendizaje automático. La red neural clásica más simple está compuesta por una capa de entrada, una capa oculta y una capa de salida, donde cada capa contiene un número dado de ldquoneuronsrdquo. Cada neurona en la capa de entrada obtiene un valor, lo procesa usando una función y la pasa a una o varias neuronas de la capa oculta con un conjunto dado de pesos, las neuronas luego repiten el proceso y pasen los valores a una o varias neuronas de salida . En esencia, la red neural toma algunos valores de entrada y entrega algunos valores de salida procesando las entradas a través de su estructura funcional. Las neuronas no son más que unidades funcionales de procesamiento que pasan valores multiplicados por ciertos pesos a otras unidades. Fragmento de código 1. Función en C que crea 84 ejemplos usando 2 devoluciones como entradas y las siguientes barras devueltas como salida Sin embargo, una red neural no sabe cómo procesar entradas desde el inicio, ya que no conoce los pesos que se dan a cada neurona conexión de red. Esta es la razón por la que necesitamos ldquotrainrdquo una red neural utilizando un conjunto dado de entradas y valores de salida para que los pesos que definen las conexiones entre las neuronas se pueden definir correctamente. A continuación, utilizar una red neuronal capacitado para predecir los resultados de los datos desconocidos, que es donde podemos obtener un beneficio mediante la predicción de algunos resultados relacionados con los datos de precios. Las demandas regulatorias son algunas de las fuerzas que impulsan los cambios en la industria. Las empresas están tratando de mantener su ventaja competitiva mediante el constante cambio de sus estrategias comerciales y el aumento de la velocidad de la negociación. Una arquitectura viable tiene que incluir las últimas tecnologías tanto de la red como de los dominios de aplicación. Tiene que ser modular para proporcionar una ruta manejable para evolucionar cada componente con la interrupción mínima al sistema total. Por lo tanto, la arquitectura propuesta por este documento se basa en un marco de servicios. Examinamos servicios como mensajería de latencia ultrabaja, supervisión de latencia, multidifusión, computación, almacenamiento, virtualización de datos y aplicaciones, capacidad de negociación, movilidad comercial y cliente ligero. La solución a los complejos requisitos de la plataforma comercial de próxima generación debe ser construida con una mentalidad holística, cruzando los límites de los silos tradicionales como el negocio y la tecnología o aplicaciones y redes. Este objetivo principal de los documentos es proporcionar directrices para la construcción de una plataforma de negociación de latencia ultra baja, mientras que la optimización de la velocidad de procesamiento y de mensajes sin procesar para los datos de mercado y las órdenes de comercio FIX. Para ello, proponemos las siguientes tecnologías de reducción de latencia: Conectividad de alta velocidadInfiniBand o conectividad de 10 Gbps para el cluster de negociación Bus de mensajería de alta velocidad Aceleración de aplicaciones a través de RDMA sin re-código de aplicación Monitorización de latencia en tiempo real y reorientación de Comercio de tráfico a la ruta con una latencia mínima Tendencias y desafíos de la industria Las arquitecturas comerciales de última generación tienen que responder a las crecientes demandas de velocidad, volumen y eficiencia. Por ejemplo, se espera que el volumen de datos de mercado de opciones se duplique después de la introducción de las opciones de comercio de peniques en 2007. También hay exigencias regulatorias para la mejor ejecución, que requieren actualizaciones de precios de manipulación a tasas que se acercan a 1M msg / s. Para intercambios. También requieren visibilidad de la frescura de los datos y la prueba de que el cliente tiene la mejor ejecución posible. A corto plazo, la velocidad de la negociación y la innovación son factores clave de diferenciación. Un número creciente de transacciones se manejan mediante aplicaciones de negociación algorítmica situadas lo más cerca posible del lugar de ejecución del comercio. Un desafío con estos motores de negociación de caja negra es que se compone el aumento de volumen mediante la emisión de órdenes sólo para cancelarlos y volver a presentarlos. La causa de este comportamiento es la falta de visibilidad en qué lugar ofrece la mejor ejecución. El comerciante humano es ahora un ingeniero quotfinancial, quotquantquot (analista cuantitativo) con habilidades de programación, que puede ajustar los modelos de comercio sobre la marcha. Las empresas desarrollan nuevos instrumentos financieros como los derivados del tiempo o los intercambios de clase de activos cruzados y necesitan implementar las nuevas aplicaciones de forma rápida y escalable. A largo plazo, la diferenciación competitiva debe proceder del análisis, no sólo del conocimiento. Los comerciantes estrella de mañana asumen el riesgo, logran la verdadera percepción del cliente y constantemente superan el mercado (fuente IBM: www-935.ibm/services/us/imc/pdf/ge510-6270-trader. pdf). La resiliencia del negocio ha sido una de las principales preocupaciones de las empresas comerciales desde el 11 de septiembre de 2001. Las soluciones en esta área abarcan desde centros de datos redundantes situados en diferentes geografías y conectados a múltiples centros de negociación a soluciones de comerciante virtual que ofrecen a los comerciantes de energía la mayor parte de la funcionalidad de una planta comercial En una ubicación remota. El sector de los servicios financieros es uno de los más exigentes en términos de requisitos de TI. La industria está experimentando un cambio arquitectónico hacia la arquitectura orientada a servicios (SOA), los servicios Web y la virtualización de los recursos de TI. SOA aprovecha el aumento de la velocidad de red para permitir la vinculación dinámica y la virtualización de componentes de software. Esto permite la creación de nuevas aplicaciones sin perder la inversión en sistemas e infraestructura existentes. El concepto tiene el potencial de revolucionar la forma en que se realiza la integración, permitiendo reducciones significativas en la complejidad y costo de tal integración (gigaspaces / download / MerrilLynchGigaSpacesWP. pdf). Otra tendencia es la consolidación de los servidores en las granjas de servidores de centros de datos, mientras que las mesas de comerciantes sólo tienen extensiones KVM y clientes ultrafinos (por ejemplo, soluciones blade de SunRay y HP). Las redes de área metropolitana de alta velocidad permiten que los datos de mercado se difundan entre diferentes ubicaciones, lo que permite la virtualización del mercado. Arquitectura de alto nivel La Figura 1 muestra la arquitectura de alto nivel de un entorno comercial. La planta ticker y los motores de negociación algorítmica se encuentran en el cluster de alto rendimiento en el centro de datos de las empresas o en el intercambio. Los comerciantes humanos se encuentran en el área de aplicaciones de usuario final. Funcionalmente hay dos componentes de aplicación en el entorno empresarial de comercio, editores y suscriptores. El bus de mensajería proporciona la ruta de comunicación entre editores y suscriptores. Existen dos tipos de tráfico específicos para un entorno comercial: Información de precios de Market DataCarries para instrumentos financieros, noticias y otra información de valor agregado como análisis. Es unidireccional y muy sensible a la latencia, normalmente entregado a través de UDP multicast. Se mide en actualizaciones / seg. Y en Mbps. Los datos de mercado fluyen de uno o varios feeds externos, procedentes de proveedores de datos de mercado como bolsas de valores, agregadores de datos y ECN. Cada proveedor tiene su propio formato de datos de mercado. Los datos son recibidos por manipuladores de alimentación, aplicaciones especializadas que normalizan y limpian los datos y luego los envían a los consumidores de datos, como motores de fijación de precios, aplicaciones de negociación algorítmica o comerciantes humanos. Las firmas de venta también envían los datos de mercado a sus clientes, las firmas de buy-side tales como fondos mutuos, hedge funds y otros gestores de activos. Algunas firmas compradoras pueden optar por recibir alimentos directos de los intercambios, lo que reduce la latencia. Figura 1 Arquitectura de comercio para una empresa de lado de compra / de venta No hay un estándar de la industria para formatos de datos de mercado. Cada intercambio tiene su formato propietario. Los proveedores de contenido financiero como Reuters y Bloomberg agregan diferentes fuentes de datos de mercado, lo normalizan y agregan noticias o análisis. Ejemplos de feeds consolidados son RDF (Feed de Datos de Reuters), RWF (Formato de Wire de Reuters) y Datos de Servicios Profesionales de Bloomberg. Para entregar datos de mercado de menor latencia, ambos proveedores han lanzado datos de mercado en tiempo real que son menos procesados ​​y tienen menos análisis: Bloomberg B-Pipe Con B-Pipe, Bloomberg desacopla su feed de datos de mercado de su plataforma de distribución porque un terminal Bloomberg No es necesario para obtener B-Pipe. Wombat y Reuters Feed Handlers han anunciado su apoyo a B-Pipe. Una empresa puede decidir recibir alimentos directamente de un intercambio para reducir la latencia. Las ganancias en velocidad de transmisión pueden estar entre 150 milisegundos a 500 milisegundos. Estos alimentos son más complejos y más caros y la empresa tiene que construir y mantener su propia planta de ticker (financetech / featured / showArticle. jhtmlarticleID60404306). Órdenes de compra Este tipo de tráfico lleva los oficios reales. Es bidireccional y muy sensible a la latencia. Se mide en mensajes / seg. Y Mbps. Las órdenes se originan de un lado de la compra o de la firma lateral de la venta y se envían a los lugares de negociación como un intercambio o ECN para la ejecución. El formato más común para el transporte de pedidos es FIX (Información Financiera eXchangefixprotocol. org/). Las aplicaciones que manejan mensajes FIX se denominan motores FIX e interactúan con sistemas de gestión de pedidos (OMS). Una optimización de FIX se llama FAST (Fix Adapted for Streaming), que utiliza un esquema de compresión para reducir la longitud del mensaje y, en efecto, reducir la latencia. FAST se orienta más a la entrega de datos de mercado y tiene el potencial de convertirse en un estándar. FAST también puede utilizarse como un esquema de compresión para formatos de datos de mercado propietarios. Para reducir la latencia, las empresas pueden optar por establecer acceso directo al mercado (DMA). DMA es el proceso automatizado de encaminamiento de una orden de valores directamente a un lugar de ejecución, evitando así la intervención de un tercero (towergroup / research / content / glossary. jsppage1ampglossaryId383). DMA requiere una conexión directa con el lugar de ejecución. El bus de mensajería es software middleware de proveedores como Tibco, 29West, Reuters RMDS o una plataforma de código abierto como AMQP. El bus de mensajería utiliza un mecanismo confiable para entregar mensajes. El transporte se puede realizar a través de TCP / IP (TibcoEMS, 29West, RMDS y AMQP) o UDP / multicast (TibcoRV, 29West y RMDS). Un concepto importante en la distribución de mensajes es el flujo quototópico, que es un subconjunto de datos de mercado definido por criterios tales como símbolo de ticker, industria o una cierta canasta de instrumentos financieros. Los suscriptores se unen a grupos de temas asignados a uno o varios subtemas para recibir sólo la información relevante. En el pasado, todos los comerciantes recibieron todos los datos del mercado. En los volúmenes actuales de tráfico, esto sería subóptimo. La red desempeña un papel crítico en el entorno comercial. Los datos de mercado se llevan a la planta de negociación donde los comerciantes humanos están ubicados a través de una red de alta velocidad del Campus o Metro Area. La alta disponibilidad y la baja latencia, así como el alto rendimiento, son las métricas más importantes. El entorno comercial de alto rendimiento tiene la mayoría de sus componentes en la granja de servidores del Centro de datos. Para minimizar la latencia, los motores de negociación algorítmica necesitan ubicarse en la proximidad de los controladores de alimentación, motores FIX y sistemas de gestión de pedidos. Un modelo de despliegue alternativo tiene los sistemas de negociación algorítmicos ubicados en un intercambio o un proveedor de servicios con conectividad rápida a múltiples intercambios. Modelos de implementación Hay dos modelos de implementación para una plataforma de negociación de alto rendimiento. Las empresas pueden optar por tener una mezcla de los dos: Centro de datos de la empresa comercial (Figura 2) Este es el modelo tradicional, donde una plataforma de comercio de pleno derecho es desarrollado y mantenido por la empresa con enlaces de comunicación a todas las sedes de negociación. La latencia varía con la velocidad de los enlaces y el número de saltos entre la empresa y los lugares. Figura 2 Modelo tradicional de implantación Co-ubicación en el lugar de negociación (intercambios, proveedores de servicios financieros (FSP)) (Figura 3) La empresa comercial implementa su plataforma de negociación automatizada lo más cerca posible de los lugares de ejecución para minimizar la latencia. Figura 3 Arquitectura de comercio orientada a servicios de modelo de despliegue alojado Estamos proponiendo un marco orientado a servicios para construir la arquitectura comercial de próxima generación. Este enfoque proporciona un marco conceptual y una ruta de implementación basada en la modularización y la minimización de las interdependencias. Este marco proporciona a las empresas una metodología para: Evaluar su estado actual en términos de servicios Priorizar los servicios basados ​​en su valor para el negocio Evolucionar la plataforma de negociación al estado deseado utilizando un enfoque modular La arquitectura de alto rendimiento comercial se basa en los siguientes servicios, Definido por el marco de arquitectura de servicios representado en la Figura 4. Figura 4 Arquitectura de la arquitectura de servicio para el servicio de mensajería de latencia ultrabaja de servicio de alto rendimiento Este servicio es proporcionado por el bus de mensajería, que es un sistema de software que resuelve el problema de conectar muchos - Muchas aplicaciones. El sistema consta de: Un conjunto de esquemas de mensajes predefinidos Un conjunto de mensajes de comandos comunes Una infraestructura de aplicación compartida para enviar los mensajes a los destinatarios. La infraestructura compartida puede basarse en un intermediario de mensajes o en un modelo de publicación / suscripción. Los requisitos clave para el bus de mensajería de próxima generación son (fuente 29West): La menor latencia posible (por ejemplo menos de 100 microsegundos) Estabilidad bajo carga pesada (por ejemplo, más de 1,4 millones de msg / s) Control y flexibilidad (control de velocidad y transportes configurables ) Hay esfuerzos en la industria para estandarizar el bus de mensajería. Advanced Message Queuing Protocol (AMQP) es un ejemplo de un estándar abierto defendido por J. P. Morgan Chase y apoyado por un grupo de vendedores como Cisco, Envoy Technologies, Red Hat, TWIST Process Innovations, Iona, 29West e iMatix. Dos de los objetivos principales son proporcionar un camino más simple a la interoperabilidad para las aplicaciones escritas en diferentes plataformas y modularidad para que el middleware pueda evolucionar fácilmente. En términos muy generales, un servidor AMQP es análogo a un servidor de correo electrónico con cada intercambio que actúa como un agente de transferencia de mensajes y cada cola de mensajes como un buzón. Los enlaces definen las tablas de enrutamiento en cada agente de transferencia. Los editores envían mensajes a agentes de transferencia individuales que, a continuación, encaminan los mensajes a buzones. Los consumidores toman mensajes de buzones, lo que crea un modelo potente y flexible que es simple (fuente: amqp. org/tikiwiki/tiki-index. phppageOpenApproachWhyAMQP). Latencia Servicio de monitoreo Los requisitos principales para este servicio son: Granulometría de milisegundos de mediciones Visibilidad casi en tiempo real sin agregar latencia al tráfico comercial Capacidad para diferenciar latencia de procesamiento de aplicaciones de latencia de tránsito de red Capacidad para manejar altas tasas de mensajes Proporcionar una interfaz programática para Intercambiar aplicaciones para recibir datos de latencia, permitiendo así que los motores de negociación algorítmicos se adapten a las condiciones cambiantes. Correlación de eventos de red con eventos de aplicación para propósitos de resolución de problemas. Latencia se puede definir como el intervalo de tiempo entre cuándo se envía una orden comercial y cuándo se reconoce y actúa el mismo pedido Por la parte receptora. Abordar el problema de latencia es un problema complejo, que requiere un enfoque holístico que identifica todas las fuentes de latencia y aplica diferentes tecnologías en diferentes capas del sistema. La Figura 5 representa la variedad de componentes que pueden introducir latencia en cada capa de la pila OSI. También mapea cada fuente de latencia con una posible solución y una solución de monitoreo. Este enfoque en capas puede dar a las empresas una forma más estructurada de atacar el problema de latencia, por lo que cada componente puede ser pensado como un servicio y tratado de forma coherente en toda la empresa. El mantenimiento de una medida precisa del estado dinámico de este intervalo de tiempo en rutas alternativas y destinos puede ser de gran ayuda en las decisiones comerciales tácticas. La capacidad de identificar la ubicación exacta de los retrasos, ya sea en la red de bordes de clientes, en el centro de procesamiento central o en el nivel de aplicación de transacciones, determina de manera significativa la capacidad de los proveedores de servicios para cumplir con sus acuerdos de nivel de servicio comercial (SLA). Para los formularios buy-side y sell-side, así como para los sindicadores de datos de mercado, la rápida identificación y eliminación de los cuellos de botella se traduce directamente en mayores oportunidades de comercio e ingresos. Figura 5 Arquitectura de gestión de latencia Herramientas de supervisión de baja latencia de Cisco Las herramientas de supervisión de red tradicionales funcionan con granularidad de minutos o segundos. Las plataformas de negociación de próxima generación, especialmente las que soportan el comercio algorítmico, requieren latencias inferiores a 5 ms y niveles extremadamente bajos de pérdida de paquetes. En una LAN Gigabit, una microburst de 100 ms puede causar que 10.000 transacciones se pierdan o se retrasen excesivamente. Cisco ofrece a sus clientes una variedad de herramientas para medir la latencia en un entorno comercial: BQM (OEM from Corvil) Administrador de calidad de ancho de banda (BQM) 4.0 de Cisco AON Un producto de gestión de rendimiento de aplicaciones de red de próxima generación que permite a los clientes supervisar y suministrar a su red niveles controlados de latencia y rendimiento de pérdidas. Aunque BQM no está dirigido exclusivamente a las redes comerciales, su visibilidad de microsegundos combinada con características inteligentes de aprovisionamiento de ancho de banda lo hacen ideal para estos entornos exigentes. Cisco BQM 4.0 implementa un amplio conjunto de tecnologías de medición de tráfico y de análisis de tráfico patentadas y pendientes de patente que proporcionan al usuario una visibilidad y una comprensión sin precedentes de cómo optimizar la red para obtener el máximo rendimiento de la aplicación. Cisco BQM ahora es compatible con la familia de productos de Cisco Application Deployment Engine (ADE). La familia de productos ADE de Cisco es la plataforma preferida para las aplicaciones de administración de redes de Cisco. BQM Beneficios La micro-visibilidad de Cisco BQM es la capacidad de detectar, medir y analizar la latencia, el jitter y la pérdida que inducen eventos de tráfico hasta niveles de microsegundo de granularidad con resolución por paquete. Esto permite a Cisco BQM detectar y determinar el impacto de los eventos de tráfico en la latencia de la red, la fluctuación de fase y la pérdida. Es fundamental para los entornos comerciales que BQM pueda soportar mediciones de latencia, pérdida y jitter de una sola vía para el tráfico TCP y UDP (multicast). Esto significa que informa de forma transparente tanto para el tráfico comercial como para los feeds de datos del mercado. BQM permite al usuario especificar un conjunto completo de umbrales (contra la actividad de microburst, latencia, pérdida, fluctuación, utilización, etc.) en todas las interfaces. BQM entonces opera una captura de paquete de rodaje de fondo. Cada vez que se produce una violación de umbral u otro evento de degradación del rendimiento potencial, activa el Cisco BQM para almacenar la captura de paquetes en el disco para su análisis posterior. Esto permite al usuario examinar en detalle tanto el tráfico de la aplicación que se ve afectado por la degradación del rendimiento (quotthe víctimas) como el tráfico que causó la degradación del rendimiento (quotthe culpritsquot). Esto puede reducir significativamente el tiempo dedicado a diagnosticar y resolver problemas de rendimiento de la red. BQM también es capaz de proporcionar detalladas ancho de banda y calidad de servicio (QoS) recomendaciones de aprovisionamiento de políticas, que el usuario puede aplicar directamente para lograr el rendimiento de la red deseada. Mediciones de BQM ilustradas Para entender la diferencia entre algunas de las técnicas de medición más convencionales y la visibilidad proporcionada por BQM, podemos ver algunos gráficos de comparación. En el primer conjunto de gráficos (Figura 6 y Figura 7), vemos la diferencia entre la latencia medida por BQMs Passive Network Quality Monitor (PNQM) y la latencia medida inyectando paquetes ping cada 1 segundo en el flujo de tráfico. En la Figura 6 vemos la latencia reportada por paquetes de ping de ICMP de 1 segundo para el tráfico de red real (se divide por 2 para dar una estimación para el retardo unidireccional). Muestra el retardo cómodamente por debajo de aproximadamente 5ms durante casi todo el tiempo. Figura 6 Latencia reportada por paquetes de ping de 1 segundo ICMP para tráfico de red real En la figura 7, vemos la latencia reportada por PNQM para el mismo tráfico al mismo tiempo. Aquí vemos que al medir la latencia unidireccional de los paquetes de aplicación reales, obtenemos una imagen radicalmente diferente. Aquí se observa que la latencia fluctúa alrededor de 20 ms, con ráfagas ocasionales mucho más altas. La explicación es que debido a que ping está enviando paquetes sólo cada segundo, está perdiendo completamente la mayor parte de la latencia del tráfico de la aplicación. De hecho, los resultados de ping normalmente sólo indican retardo de propagación de ida y vuelta en lugar de latencia real de aplicación en la red. En el segundo ejemplo (Figura 8), vemos la diferencia en la carga de enlace o niveles de saturación entre una vista promedio de 5 minutos y una vista de microburst de 5 ms (BQM puede informar sobre los microbursts hacia abajo A aproximadamente 10-100 nanosecond exactitud). La línea verde muestra que la utilización media en promedios de 5 minutos es baja, tal vez hasta 5 Mbits / s. La trama azul oscuro muestra la actividad de microburst de 5 ms que alcanza entre 75 Mbits / s y 100 Mbits / s, la velocidad LAN de forma eficaz. BQM muestra este nivel de granularidad para todas las aplicaciones y también proporciona reglas claras de aprovisionamiento para permitir al usuario controlar o neutralizar estos microbursts. Figura 8 Diferencia en la carga de enlace reportada entre una vista promedio de 5 minutos y una vista de microburst de 5 ms Despliegue BQM en la red comercial La Figura 9 muestra un despliegue BQM típico en una red comercial. Figura 9 Despliegue típico de BQM en una red comercial BQM se puede utilizar para responder a este tipo de preguntas: ¿Alguno de mis enlaces LAN de Gigabit saturados durante más de X milisegundos ¿Esto está causando pérdidas ¿Qué enlaces se beneficiarían más de una actualización a Etherchannel o 10 Gigabit velocidades ¿Qué tráfico de la aplicación está causando la saturación de mis enlaces de 1 Gigabit ¿Alguno de los datos de mercado experimentando pérdida de extremo a extremo ¿Cuánta latencia adicional hace la experiencia de centro de datos de conmutación por error Es este enlace correctamente clasificado para hacer frente a micro - Obtener actualizaciones de baja latencia de la capa de distribución de datos del mercado ¿Están viendo cualquier retraso mayor de X milisegundos Ser capaz de responder a estas preguntas de forma sencilla y eficaz ahorra tiempo y dinero en el funcionamiento de la red comercial. BQM es una herramienta esencial para obtener visibilidad en los mercados de datos y entornos comerciales. Proporciona mediciones de latencia de extremo a extremo granular en infraestructuras complejas que experimentan movimientos de datos de alto volumen. La detección efectiva de microburbujas en niveles de sub-milisegundos y la recepción de análisis de expertos sobre un evento en particular es invaluable para los arquitectos de la planta comercial. Smart bandwidth provisioning recommendations, such as sizing and what-if analysis, provide greater agility to respond to volatile market conditions. As the explosion of algorithmic trading and increasing message rates continues, BQM, combined with its QoS tool, provides the capability of implementing QoS policies that can protect critical trading applications. Cisco Financial Services Latency Monitoring Solution Cisco and Trading Metrics have collaborated on latency monitoring solutions for FIX order flow and market data monitoring. Cisco AON technology is the foundation for a new class of network-embedded products and solutions that help merge intelligent networks with application infrastructure, based on either service-oriented or traditional architectures. Trading Metrics is a leading provider of analytics software for network infrastructure and application latency monitoring purposes (tradingmetrics/ ). The Cisco AON Financial Services Latency Monitoring Solution (FSMS) correlated two kinds of events at the point of observation: Network events correlated directly with coincident application message handling Trade order flow and matching market update events Using time stamps asserted at the point of capture in the network, real-time analysis of these correlated data streams permits precise identification of bottlenecks across the infrastructure while a trade is being executed or market data is being distributed. By monitoring and measuring latency early in the cycle, financial companies can make better decisions about which network serviceand which intermediary, market, or counterpartyto select for routing trade orders. Likewise, this knowledge allows more streamlined access to updated market data (stock quotes, economic news, etc.), which is an important basis for initiating, withdrawing from, or pursuing market opportunities. The components of the solution are: AON hardware in three form factors: AON Network Module for Cisco 2600/2800/3700/3800 routers AON Blade for the Cisco Catalyst 6500 series AON 8340 Appliance Trading Metrics MampA 2.0 software, which provides the monitoring and alerting application, displays latency graphs on a dashboard, and issues alerts when slowdowns occur (tradingmetrics/TMbrochure. pdf ). Figure 10 AON-Based FIX Latency Monitoring Cisco IP SLA Cisco IP SLA is an embedded network management tool in Cisco IOS which allows routers and switches to generate synthetic traffic streams which can be measured for latency, jitter, packet loss, and other criteria (cisco/go/ipsla ). Two key concepts are the source of the generated traffic and the target. Both of these run an IP SLA quotresponder, quot which has the responsibility to timestamp the control traffic before it is sourced and returned by the target (for a round trip measurement). Various traffic types can be sourced within IP SLA and they are aimed at different metrics and target different services and applications. The UDP jitter operation is used to measure one-way and round-trip delay and report variations. As the traffic is time stamped on both sending and target devices using the responder capability, the round trip delay is characterized as the delta between the two timestamps. A new feature was introduced in IOS 12.3(14)T, IP SLA Sub Millisecond Reporting, which allows for timestamps to be displayed with a resolution in microseconds, thus providing a level of granularity not previously available. This new feature has now made IP SLA relevant to campus networks where network latency is typically in the range of 300-800 microseconds and the ability to detect trends and spikes (brief trends) based on microsecond granularity counters is a requirement for customers engaged in time-sensitive electronic trading environments. As a result, IP SLA is now being considered by significant numbers of financial organizations as they are all faced with requirements to: Report baseline latency to their users Trend baseline latency over time Respond quickly to traffic bursts that cause changes in the reported latency Sub-millisecond reporting is necessary for these customers, since many campus and backbones are currently delivering under a second of latency across several switch hops. Electronic trading environments have generally worked to eliminate or minimize all areas of device and network latency to deliver rapid order fulfillment to the business. Reporting that network response times are quotjust under one millisecondquot is no longer sufficient the granularity of latency measurements reported across a network segment or backbone need to be closer to 300-800 micro-seconds with a degree of resolution of 100 igrave seconds. IP SLA recently added support for IP multicast test streams, which can measure market data latency. A typical network topology is shown in Figure 11 with the IP SLA shadow routers, sources, and responders. Figure 11 IP SLA Deployment Computing Services Computing services cover a wide range of technologies with the goal of eliminating memory and CPU bottlenecks created by the processing of network packets. Trading applications consume high volumes of market data and the servers have to dedicate resources to processing network traffic instead of application processing. Transport processingAt high speeds, network packet processing can consume a significant amount of server CPU cycles and memory. An established rule of thumb states that 1Gbps of network bandwidth requires 1 GHz of processor capacity (source Intel white paper on I/O acceleration intel/technology/ioacceleration/306517.pdf ). Intermediate buffer copyingIn a conventional network stack implementation, data needs to be copied by the CPU between network buffers and application buffers. This overhead is worsened by the fact that memory speeds have not kept up with increases in CPU speeds. For example, processors like the Intel Xeon are approaching 4 GHz, while RAM chips hover around 400MHz (for DDR 3200 memory) (source Intel intel/technology/ioacceleration/306517.pdf ). Context switchingEvery time an individual packet needs to be processed, the CPU performs a context switch from application context to network traffic context. This overhead could be reduced if the switch would occur only when the whole application buffer is complete. Figure 12 Sources of Overhead in Data Center Servers TCP Offload Engine (TOE)Offloads transport processor cycles to the NIC. Moves TCP/IP protocol stack buffer copies from system memory to NIC memory. Remote Direct Memory Access (RDMA)Enables a network adapter to transfer data directly from application to application without involving the operating system. Eliminates intermediate and application buffer copies (memory bandwidth consumption). Kernel bypass Direct user-level access to hardware. Dramatically reduces application context switches. Figure 13 RDMA and Kernel Bypass InfiniBand is a point-to-point (switched fabric) bidirectional serial communication link which implements RDMA, among other features. Cisco offers an InfiniBand switch, the Server Fabric Switch (SFS): cisco/application/pdf/en/us/guest/netsol/ns500/c643/cdccont0900aecd804c35cb. pdf. Figure 14 Typical SFS Deployment Trading applications benefit from the reduction in latency and latency variability, as proved by a test performed with the Cisco SFS and Wombat Feed Handlers by Stac Research: Application Virtualization Service De-coupling the application from the underlying OS and server hardware enables them to run as network services. One application can be run in parallel on multiple servers, or multiple applications can be run on the same server, as the best resource allocation dictates. This decoupling enables better load balancing and disaster recovery for business continuance strategies. The process of re-allocating computing resources to an application is dynamic. Using an application virtualization system like Data Synapses GridServer, applications can migrate, using pre-configured policies, to under-utilized servers in a supply-matches-demand process (networkworld/supp/2005/ndc1/022105virtual. htmlpage2 ). There are many business advantages for financial firms who adopt application virtualization: Faster time to market for new products and services Faster integration of firms following merger and acquisition activity Increased application availability Better workload distribution, which creates more quothead roomquot for processing spikes in trading volume Operational efficiency and control Reduction in IT complexity Currently, application virtualization is not used in the trading front-office. One use-case is risk modeling, like Monte Carlo simulations. As the technology evolves, it is conceivable that some the trading platforms will adopt it. Data Virtualization Service To effectively share resources across distributed enterprise applications, firms must be able to leverage data across multiple sources in real-time while ensuring data integrity. With solutions from data virtualization software vendors such as Gemstone or Tangosol (now Oracle), financial firms can access heterogeneous sources of data as a single system image that enables connectivity between business processes and unrestrained application access to distributed caching. The net result is that all users have instant access to these data resources across a distributed network (gridtoday/03/0210/101061.html ). This is called a data grid and is the first step in the process of creating what Gartner calls Extreme Transaction Processing (XTP) (gartner/DisplayDocumentrefgsearchampid500947 ). Technologies such as data and applications virtualization enable financial firms to perform real-time complex analytics, event-driven applications, and dynamic resource allocation. One example of data virtualization in action is a global order book application. An order book is the repository of active orders that is published by the exchange or other market makers. A global order book aggregates orders from around the world from markets that operate independently. The biggest challenge for the application is scalability over WAN connectivity because it has to maintain state. Todays data grids are localized in data centers connected by Metro Area Networks (MAN). This is mainly because the applications themselves have limitsthey have been developed without the WAN in mind. Figure 15 GemStone GemFire Distributed Caching Before data virtualization, applications used database clustering for failover and scalability. This solution is limited by the performance of the underlying database. Failover is slower because the data is committed to disc. With data grids, the data which is part of the active state is cached in memory, which reduces drastically the failover time. Scaling the data grid means just adding more distributed resources, providing a more deterministic performance compared to a database cluster. Multicast Service Market data delivery is a perfect example of an application that needs to deliver the same data stream to hundreds and potentially thousands of end users. Market data services have been implemented with TCP or UDP broadcast as the network layer, but those implementations have limited scalability. Using TCP requires a separate socket and sliding window on the server for each recipient. UDP broadcast requires a separate copy of the stream for each destination subnet. Both of these methods exhaust the resources of the servers and the network. The server side must transmit and service each of the streams individually, which requires larger and larger server farms. On the network side, the required bandwidth for the application increases in a linear fashion. For example, to send a 1 Mbps stream to 1000recipients using TCP requires 1 Gbps of bandwidth. IP multicast is the only way to scale market data delivery. To deliver a 1 Mbps stream to 1000 recipients, IP multicast would require 1 Mbps. The stream can be delivered by as few as two serversone primary and one backup for redundancy. There are two main phases of market data delivery to the end user. In the first phase, the data stream must be brought from the exchange into the brokerages network. Typically the feeds are terminated in a data center on the customer premise. The feeds are then processed by a feed handler, which may normalize the data stream into a common format and then republish into the application messaging servers in the data center. The second phase involves injecting the data stream into the application messaging bus which feeds the core infrastructure of the trading applications. The large brokerage houses have thousands of applications that use the market data streams for various purposes, such as live trades, long term trending, arbitrage, etc. Many of these applications listen to the feeds and then republish their own analytical and derivative information. For example, a brokerage may compare the prices of CSCO to the option prices of CSCO on another exchange and then publish ratings which a different application may monitor to determine how much they are out of synchronization. Figure 16 Market Data Distribution Players The delivery of these data streams is typically over a reliable multicast transport protocol, traditionally Tibco Rendezvous. Tibco RV operates in a publish and subscribe environment. Each financial instrument is given a subject name, such as CSCO. last. Each application server can request the individual instruments of interest by their subject name and receive just a that subset of the information. This is called subject-based forwarding or filtering. Subject-based filtering is patented by Tibco. A distinction should be made between the first and second phases of market data delivery. The delivery of market data from the exchange to the brokerage is mostly a one-to-many application. The only exception to the unidirectional nature of market data may be retransmission requests, which are usually sent using unicast. The trading applications, however, are definitely many-to-many applications and may interact with the exchanges to place orders. Figure 17 Market Data Architecture Design Issues Number of Groups/Channels to Use Many application developers consider using thousand of multicast groups to give them the ability to divide up products or instruments into small buckets. Normally these applications send many small messages as part of their information bus. Usually several messages are sent in each packet that are received by many users. Sending fewer messages in each packet increases the overhead necessary for each message. In the extreme case, sending only one message in each packet quickly reaches the point of diminishing returnsthere is more overhead sent than actual data. Application developers must find a reasonable compromise between the number of groups and breaking up their products into logical buckets. Consider, for example, the Nasdaq Quotation Dissemination Service (NQDS). The instruments are broken up alphabetically: This approach allows for straight forward network/application management, but does not necessarily allow for optimized bandwidth utilization for most users. A user of NQDS that is interested in technology stocks, and would like to subscribe to just CSCO and INTL, would have to pull down all the data for the first two groups of NQDS. Understanding the way users pull down the data and then organize it into appropriate logical groups optimizes the bandwidth for each user. In many market data applications, optimizing the data organization would be of limited value. Typically customers bring in all data into a few machines and filter the instruments. Using more groups is just more overhead for the stack and does not help the customers conserve bandwidth. Another approach might be to keep the groups down to a minimum level and use UDP port numbers to further differentiate if necessary. The other extreme would be to use just one multicast group for the entire application and then have the end user filter the data. In some situations this may be sufficient. Intermittent Sources A common issue with market data applications are servers that send data to a multicast group and then go silent for more than 3.5 minutes. These intermittent sources may cause trashing of state on the network and can introduce packet loss during the window of time when soft state and then hardware shorts are being created. PIM-Bidir or PIM-SSM The first and best solution for intermittent sources is to use PIM-Bidir for many-to-many applications and PIM-SSM for one-to-many applications. Both of these optimizations of the PIM protocol do not have any data-driven events in creating forwarding state. That means that as long as the receivers are subscribed to the streams, the network has the forwarding state created in the hardware switching path. Intermittent sources are not an issue with PIM-Bidir and PIM-SSM. Null Packets In PIM-SM environments a common method to make sure forwarding state is created is to send a burst of null packets to the multicast group before the actual data stream. The application must efficiently ignore these null data packets to ensure it does not affect performance. The sources must only send the burst of packets if they have been silent for more than 3 minutes. A good practice is to send the burst if the source is silent for more than a minute. Many financials send out an initial burst of traffic in the morning and then all well-behaved sources do not have problems. Periodic Keepalives or Heartbeats An alternative approach for PIM-SM environments is for sources to send periodic heartbeat messages to the multicast groups. This is a similar approach to the null packets, but the packets can be sent on a regular timer so that the forwarding state never expires. S, G Expiry Timer Finally, Cisco has made a modification to the operation of the S, G expiry timer in IOS. There is now a CLI knob to allow the state for a S, G to stay alive for hours without any traffic being sent. The (S, G) expiry timer is configurable. This approach should be considered a workaround until PIM-Bidir or PIM-SSM is deployed or the application is fixed. RTCP Feedback A common issue with real time voice and video applications that use RTP is the use of RTCP feedback traffic. Unnecessary use of the feedback option can create excessive multicast state in the network. If the RTCP traffic is not required by the application it should be avoided. Fast Producers and Slow Consumers Today many servers providing market data are attached at Gigabit speeds, while the receivers are attached at different speeds, usually 100Mbps. This creates the potential for receivers to drop packets and request re-transmissions, which creates more traffic that the slowest consumers cannot handle, continuing the vicious circle. The solution needs to be some type of access control in the application that limits the amount of data that one host can request. QoS and other network functions can mitigate the problem, but ultimately the subscriptions need to be managed in the application. Tibco Heartbeats TibcoRV has had the ability to use IP multicast for the heartbeat between the TICs for many years. However, there are some brokerage houses that are still using very old versions of TibcoRV that use UDP broadcast support for the resiliency. This limitation is often cited as a reason to maintain a Layer 2 infrastructure between TICs located in different data centers. These older versions of TibcoRV should be phased out in favor of the IP multicast supported versions. Multicast Forwarding Options PIM Sparse Mode The standard IP multicast forwarding protocol used today for market data delivery is PIM Sparse Mode. It is supported on all Cisco routers and switches and is well understood. PIM-SM can be used in all the network components from the exchange, FSP, and brokerage. There are, however, some long-standing issues and unnecessary complexity associated with a PIM-SM deployment that could be avoided by using PIM-Bidir and PIM-SSM. These are covered in the next sections. The main components of the PIM-SM implementation are: PIM Sparse Mode v2 Shared Tree (spt-threshold infinity) A design option in the brokerage or in the exchange.

No comments:

Post a Comment