Para utilizar las funcionalidades completas de este sitio, es necesario tener JavaScript habilitado. Aquí están las instrucciones para habilitar JavaScript en tu navegador web .

Toda organización que desea tener éxito debe contar con la capacidad de aprender, crecer y desarrollar un constante sentido de adaptación, pues son aquellos organismos adaptables los que tienen las mejores posibilidades de reaccionar positivamente a los elementos impredecibles del ambiente. En la naturaleza, este proceso ocurre por medio de lo que denominamos selección natural, donde un individuo puede tener o no la suerte de contar con los genes necesarios para adaptarse a las circunstancias que la naturaleza presente. En este proceso de selección natural se desarrolla también la jerarquía del mundo natural y se definen los organismos que se ubicarán en el tope y al final de la cadena alimenticia, quienes dominan y quienes serán subyugados en un determinado ecosistema.

En el mundo natural este proceso ocurre un tanto al azar, producto de pequeñas mutaciones genéticas, sin embargo, en las organizaciones ocurre como producto de las decisiones de cada individuo a partir de la información con la que se cuenta. El éxito de una organización está en adaptarse al mercado y esta adaptación, ocurre cuando todos los profesionales involucrados en el proceso cuentan con la mayor cantidad de información posible, de allí la frase trillada “La información es poder”.

Ése es el rol del profesional de TI, procesar y proveer de una forma simple, rápida, práctica y segura la información necesaria para que la organización pueda tomar decisiones oportunas que permitan la adaptación y diferenciación.

Tradicionalmente, el modelo de TI ha sido bastante comprensible, sin embargo, a medida que las organizaciones crecen, a medida que se amplía la oferta y la demanda, y que los mercados se vuelven mas exigentes, ocurre un proceso de especialización y optimización que requiere que los procesos tradicionales sean más rápidos, más seguros y en general más eficientes. No hay límite en la expectativa las organizaciones tendrán del proceso de optimización, siempre habrá espacio para mejorar.

A este proceso de optimización y adaptación por medio de la información y la tecnología le llamamos Transformación Digital y cuenta con 3 premisas identificables en cualquier ámbito:

  • Crear Nuevas Experiencias para los Clientes
  • Transformar Procesos y Modelos de Negocio
  • Potenciar la Eficiencia del Personal y la Innovación

Con el propósito de alcanzar los objetivos de la Transformación Digital las organizaciones se enfocan por lo general en desarrollar y potenciar los servicios de TI por medio de actualizaciones tecnológicas, virtualización de servicios y productos, y mejoras en los procesos operativos de la organización.

Uno de los elementos claves en este proceso es el transporte de datos. Es un componente estratégico en la organización, ya que en el proceso de Transformación Digital cada vez más requerimos de características de movilidad y de disponibilidad de la información en todo momento y en cualquier lugar. Las organizaciones bancarias cada vez más están invirtiendo en servicios de banca en línea para sustituir la transacción tradicional pues es más conveniente para los usuarios, requiere menos tiempo y menor inversión de recurso humano, lo que reduce significativamente los costos operativos tanto de las instituciones bancarias como de los mismos clientes que hacen uso de los servicios de banca electrónica.

Este proceso de evolución tecnológica requiere que el transporte de datos cuente con seguridad, simplicidad, automatización e inteligencia, y ése es el desafío que las organizaciones enfrentan en su preparación para la nueva era digital.

De igual forma, los usuarios han evolucionado significativamente respecto a las generaciones anteriores. Con el incremento del poder adquisitivo de la generación que denominamos “Millenials” (Nacidos entre 1982 y 2000) y considerando que el mercado está dominado por esta generación, es que se vuelve inevitable lo que pasó con Blockbuster hace ya varios años donde los usuarios dejaron de ir a la tienda a rentar videocasetes o DVD, y comenzaron a consumir Netflix. De igual forma lo que está ocurriendo ahora mismo con Toy’s R Us, Best Buy y GAP entre otros donde el negocio de retail está siendo reemplazado por el e-commerce por medio de Amazon o Ebay, y donde el mismo Best Buy se ha movido a comercializar cada vez más por medio de su tienda en línea.

“Creo que finalmente pasarán de tres a cinco años cuando los minoristas tengan una mejor idea del equilibrio entre sus negocios de comercio electrónico y la cantidad de tiendas que efectivamente pueden tener abiertas,” comentó el fundador de Retal Metrics Ken Perkins. https://www.cnbc.com/2018/04/05/here-are-all- the-store-closures-we-know-are-coming-in-2018. html

La tendencia es evidente en cualquier ámbito y para muchos ya es tarde. Sin embargo, muchas organizaciones siguen creyendo que son cosas del futuro o que el mercado seguirá abriendo espacio a su modelo de negocio. 

Hoy, como hace 15 años

Mientras las infraestructuras de procesamiento evolucionan con soluciones de virtualización, las redes de datos siguen manejándose como hace 15 años. Desde el nacimiento del modelo de virtualización de ambientes de procesamiento como KVM, HYPER V, CITRIX, VMWARE entre otros, las organizaciones han realizado el proceso de migración de sus ambientes tradicionales donde cada aplicación requería  su propio sistema operativo y su propio servidor físico dedicado. Las desventajas de escalabilidad  eran enormes y los centros de datos se llenaban de cajas que requerían cada vez más energía, mas enfriamiento y más espacio.

Ahora mismo ya se alcanzó el siguiente paso evolutivo en la utilización de Contenedores por encima de las máquinas virtuales, pues resulta aún más eficiente que el modelo virtualizado que ya todos conocemos.

De aquel momento hace aproximadamente 10 o 15 años hasta este tiempo se han dado pasos enormes, tanto en el procesamiento de datos como desarrollando soluciones de virtualización en casi cada ámbito como bases de datos y virtualización de los propios “MainFrames” hasta la definición de servicios de procesamiento en la nube que simplifica significativamente el modelo de gestión. Mientras tanto en las redes de datos, seguimos dependiendo de la famosa y bien ponderada “VLAN” y, si bien ha habido ciertos avances en el proceso de virtualización utilizando tecnologías equivalentes a las de procesamiento como VDC o Contextos de Cisco, o VRFs como solución multi fabricante, el impacto ha sido lento y se sigue dependiendo de tecnologías de transporte tradicionales. El CLI (Command Line Interface) sigue siendo el elemento preferido por los ingenieros para el proceso de configuración de las plataformas de redes de datos. Y seguimos manejando los dispositivos de comunicaciones y seguridad como elementos aislados.

Quizás uno de los mayores problemas que enfrentamos en el proceso de Transformación Digital desde el punto de vista de redes de datos es la disrupción que existe en la forma en la que se manejan y presentan los servicios a los usuarios y la forma en la que manejamos las infraestructuras de transporte. Mientras el ingeniero de aplicaciones habla de una arquitectura de “multitier” donde un servicio cuenta con una base de datos, una capa de aplicación y otra de servicios Web, que es totalmente coherente desde el punto de vista de los usuarios y la forma en la que se consumen los servicios, en el caso de los ingenieros de redes, seguimos hablando de arquitecturas CORE, Distribución y Acceso, y de segmentación de ambientes dentro del Centro de Datos por medio de VLAN o redes IP.

Aunque la tecnología ha evolucionado enormemente, y existen muchísimas ventajas en la tecnología respecto a la que teníamos disponible hace 10 años, la tendencia sigue siendo la misma, cada dispositivo de comunicaciones e inclusive los de seguridad en muchos casos se configuran individualmente, y seguimos valiéndonos de tecnologías y topologías que venimos usando desde hace más de 10 años.

Éste es el momento de provocar una evolución en las infraestructuras de comunicaciones y seguridad que hoy en día tenemos disponibles. El proceso de Transformación Digital requiere que demos el paso y podamos proveer estas características ahora mismo.

¿Qué hacer?

Hace ya bastante tiempo las principales empresas en el mundo se dieron cuenta de las limitaciones de análisis y procesamiento que tenemos los seres humanos aún con las capacidades adicionales que la tecnología nos ofrece. No es raro ahora que los usuarios expresen desconcierto cuando al utilizar Google para realizar una búsqueda y haber ingresado 2 ó 3 letras en el campo, el navegador automáticamente predice exactamente lo que buscábamos aun cuando existen miles de posibilidades a partir de esas 2 ó 3 letras, y es que la búsqueda considera no solo la información que ingresamos sino el historial de navegación, la ubicación física, el tipo de dispositivo y navegador utilizado y otra serie de información contextual que permite predecir el comportamiento de los usuarios.

Para que comportamientos como éstos sean posibles, para que una campaña de marketing identifique exactamente cuál es el drone que quiero comprar y me lo presente cada 5 minutos logrando que un nivel de éxito que de otra forma no existiría, es necesario facilitar la comunicación de máquina a máquina, limitando en la medida de lo posible la participación del ser humano en el proceso. Pues los seres humanos definimos el algoritmo y dejamos que la máquina lo ejecute.

Es allí donde entra el concepto de Software Define Networking (SDN) que tiene como propósito la implementación dinámica y determinística de servicios de red. Esto quiere decir que no dependa de un ser humano para aprovisionar transporte a cualquier servicio que lo requiera. Éste es el resultado inevitable de la tecnología y estamos en el momento de iniciar el camino. El problema del concepto es que resulta difícil volverlo tangible ya que por naturaleza el ser humano es resistente al cambio y la definición paradigmática de la implementación y gestión de redes de datos está profundamente arraigada.

Existen varias premisas respecto a las soluciones de SDN desde el punto de vista pragmático, para atender problemas que muchas veces no sabemos que si quiera tenemos: 

Un cerebro ganador

En la naturaleza, el cerebro de las abejas funciona en red, donde cada abeja se comporta como una neurona. Por sí mismos, los cerebros de las abejas son cosas bastante notables, aunque el poder de la computación humana aún los supera. Pero nuevas investigaciones sugieren que los miembros individuales de un enjambre se comportan sorprendentemente como neuronas en el cerebro humano.

La idea es que, si bien las abejas como organismos individuales ejecutan acciones individuales, lo hacen considerando a toda la colonia y de forma muy orgánica se integran a la estructura estableciendo comunicación tanto para recibir información de otros individuos acerca del ambiente, como para notificar respecto a la información recibida. El proceso de interacción e integración es muy natural y transparente.

En el caso de los dispositivos de comunicaciones inteligentes, independientemente de su fabricante, tiene 2 componentes lógicos: El plano de control es el cerebro donde se definen la serie de reglas de comportamiento del dispositivo respecto al tráfico. El plano de datos – es la serie de recursos físicos y lógicos que ejecutan el transporte en base a las reglas definidas en el plano de control.

En función de esto, el modelo de SDN establece que toda la infraestructura de conmutación del Centro de Datos debe tener un plano de control centralizado. Esto quiere decir que cuando queramos configurar la red de transporte del centro de datos, desde el punto de vista de gestión, debemos observar un solo grupo de recursos con un solo cerebro. Si bien actualmente existen plataformas de gestión que utilizan SNMP, CLI u otro medio para gestionar la red, éstas únicamente permiten entregar instrucciones a cada cerebro individual de cada dispositivo. La aproximación de SDN está mas orientada a presentar todos los dispositivos como parte de un gran cerebro que tiene la capacidad de integrar todos los elementos entre sí. Esto quiere decir que ningún dispositivo toma decisiones individualmente, sino que se considera a toda la red para la determinación del comportamiento del tráfico.

De esta forma el proceso de gestión de centraliza y permite que puedan habilitarse otros mecanismos para generar instrucciones distintas a que un ser humano establezca sentencias por medio de código.

Programabilidad y lenguaje máquina a máquina

Cuando un programador en cualquier tipo de plataforma desea establecer instrucciones para que sean ejecutadas por una máquina, es necesario establecer esa lista de instrucciones utilizando un código coherente que llamamos lenguaje de programación. El lenguaje de programación también existe en redes y es el set de instrucciones que se le aplican a los dispositivos para que éstos hagan lo que nosotros queremos. En el caso de los programadores de sistemas, ellos tienen la oportunidad de escribir el código, compilar, probar el comportamiento del código y luego de muchas pruebas y evaluaciones, sacar a producción. En el caso del ingeniero de redes, las sentencias ejecutadas son ejecutadas y aplicadas en tiempo real en la mayoría de los casos. Esto plantea un problema enorme con el que hemos aprendido a vivir por años y es el riesgo latente de error humano.

El modelo de SDN establece que la definición de sentencias de programación debe ser ejecutada utilizando mecanismos que permitan una configuración extremadamente heterogénea y que no estén limitados a la capacidad de tiempo de respuesta que los seres humanos tienen.

La idea es procurar la comunicación de máquina a máquina para disminuir el error humano, procurar que las configuraciones se apliquen de manera inmediata manteniendo homogeneidad en las reglas de operación de los dispositivos.

Agnosticismo de red

En la proliferación de posiciones filosóficas y religiosas existen aquellos que se consideran a si mismos ateos respecto a la existencia de una deidad, es una forma de pensamiento que declara la no existencia de un ser superior, sin embargo, hay quienes simplemente se consideran agnósticos pues no necesariamente niegan la existencia de un dios, sino que les resulta indiferente o inaccesible al pensamiento humano la noción de su existencia. De la misma forma SDN establece como premisa que las características de comunicación tradicionales como direccionamiento IP, VLAN u otro elemento tradicional que actualmente consideramos determinante se vuelven irrelevantes al punto donde solamente se utilizan como recursos a utilizar. Una aplicación no funciona mejor si utiliza la VLAN 100 en lugar de la VLAN 200; tampoco importa si el servidor se conecta en el puerto 10 o en el 11, pues la VLAN, el puerto o la dirección IP son solamente un número. El modelo de SDN propone que los elementos relevantes en la comunicación son aquellos que sí tienen un impacto directo en la operación de la aplicación o el servicio a los usuarios y por lo tanto cualquier otra cosa es irrelevante debe simplificarse su uso o aplicación.

Los fabricantes de soluciones de SDN tienen todos estos elementos dentro de un grupo de recursos que son utilizados de forma automática en la medida que se van requiriendo, de tal forma que el proceso de implementación se simplifica significativamente y se facilita el proceso de aprovisionamiento automático.

SDN de CISCO

Cisco es uno de los fabricantes que ha desarrollado soluciones completas basadas en el modelo de SDN. La solución de Cisco se llama ACI (Application Centric Infrastructure) y está basada en la plataforma de dispositivos Nexus 9000 y en los dispositivos de control llamados APIC (Application Policy Infrastructure Controller).

La solución de Cisco se basa en los siguientes fundamentos:

Seguridad

Los procesos interconectados digitalmente son el sustento de la empresa y deben ser protegidos de forma integral. Los límites de las empresas se están expandiendo cada día más y las compañías de hoy están adoptando ecosistemas abiertos que son excelentes para mejorar la eficiencia, pero también elevan las posibilidades de sufrir un ataque. La digitalización se está volviendo más valiosa y las transacciones en línea y la propiedad intelectual son más vulnerables a los riesgos de seguridad. Ante este panorama, la superficie de ataque ha crecido y es fundamental contar con una infraestructura segura para proteger la integridad y la reputación de la empresa.

Automatización

Millones de dispositivos, miles de máquinas virtuales y cientos de aplicaciones están conectándose para la transformación digital mientras el personal de TI sigue siendo el mismo. Para este departamento, gestionar todo de forma manual es casi imposible debido al tamaño y la complejidad de los entornos de red, además de las expectativas de tener respuestas en tiempo real. Las necesidades empresariales están cambiando rápidamente y usted necesita ser proactivo, ágil y reactivo. Una infraestructura automatizada es el motor que impulsa la transformación digital.

Simplicidad

A medida que el Internet de las Cosas (IoT) toma forma, millones de dispositivos y fuentes de datos diferentes se están conectando entre sí.  Debido a ello, las organizaciones están llevando acabo la convergencia de TI y TO para integrar los procesos y el flujo de información. Las empresas y la infraestructura están obteniendo mayor dinamismo y distribución a través de las tendencias sociales, móviles y de nube. Todo esto aumenta la complejidad y por esa razón usted necesita contar con mayor simplicidad en su infraestructura.

Inteligencia

El mundo está cada vez más conectado, los datos son más importantes que nunca y cada día más organizaciones buscan liberar su valor total aprovechando el conocimiento contextual que producen las aplicaciones, los usuarios, las amenazas y la ubicación. Necesitan conocimientos predictivos y prescriptivos para responder más rápido ante los cambios del mercado, por eso están buscando procesos y tecnologías más adaptables que les permitan entender mejor a sus clientes y los procesos de negocio. Estas prioridades requieren una infraestructura inteligente.

Adicionalmente a lo anterior, la solución propone un ecosistema abierto que permite que se puedan integrar diferentes fabricantes de servicios de red y seguridad al mismo modelo general de control y operación basado en ACI. Con esto, se busca simplificar la definición de características de administración y operación desde un punto centralizado independientemente del fabricante de la plataforma de seguridad o de red que se deseen implementar.

SDN y GBM como integrador

En cualquier empresa existe la necesidad constante de habilitación de nuevos servicios por lo que todos los involucrados en el proceso deben estar listos para realizar su labor.

Imaginemos que queremos habilitar un nuevo servicio para los usuarios; este servicio requiere que los usuarios accedan por medio de Internet utilizando un servicio web. El ingeniero responsable de la aplicación requiere que todos los componentes del servicio puedan ser habilitados por lo que debe hablar con el responsable de base de datos para que habilite el espacio necesario, también con el responsable de la infraestructura de procesamiento virtual para que prepare las máquinas virtuales necesarias que formarán parte del servicio, de la misma forma hablar con el ingeniero de redes para que prepare la red para habilitar la comunicación entre los diferentes elementos y finalmente, con los ingenieros de seguridad para que habiliten los servicios de control e inspección necesarios para el servicio. El proceso de habilitación de un servicio resulta ser extremadamente complejo e involucra muchas partes. El riesgo de que algo salga mal es muy alto y por lo general implica constantes correcciones y adecuaciones durante la marcha.

Que diferente sería que el responsable de la aplicación pudiera entrar a un portal donde está el catálogo de servicios, seleccione todas las características necesarias y luego iniciará un proceso automático de aprovisionamiento donde sea esta plataforma la que se encargue de girar instrucciones al resto de plataformas de forma directa (lenguaje máquina a máquina) y el proceso de aprovisionamiento dure unos pocos minutos. Éste precisamente es el modelo propuesto para un ambiente de “Software Defined Datacenter” donde el componente de red es uno de los bloques modulares que lo compone de tal forma que se puedan realizar las integraciones de forma segura, sencilla y automática.

GBM como integrador de soluciones de comunicaciones y como proveedor de servicios de nube ha incorporado en sus Centros de Datos tecnologías SDN utilizando la solución de Cisco ACI con el propósito de obtener todos los beneficios propuestos por el modelo, como el aprovisionamiento automático de servicios de red, centralización dela gestión de red y las características de seguridad “multitenant”.

Esta arquitectura permite que durante el proceso de aprovisionamiento de servicios de red sea la propia aplicación la que defina los requerimientos y quien aprovisione la red de forma automática de tal forma que se evite la necesidad de tener que realizar configuraciones manuales cada vez que se requiera un nuevo servicio.

De la misma forma, GBM ha realizado varias integraciones en empresas de la región donde se han habilitado servicios SDN como parte del proceso natural de migración de la infraestructura. El proceso de integración de soluciones SDN ha permitido iniciar el  proceso  de  cambio de paradigma en la región y permite que las instituciones puedan confiar plenamente en que el proceso inevitable de actualización de las plataformas de transporte de datos se pueda ejecutar de forma transparente sin comprometer la operación normal de los servicios.

 

Compartir este artículo
¿Por qué necesita un coach empresarial para analíticos?

05 Noviembre, 2018 | De acuerdo con Forbes el 66% de las compañías ya tercerizan entre el 11% y el 75% de sus aplicaciones de inteligencia de negocios. Forrester predice que hasta un 80% de las firmas van a confiar en proveedores de servicios de inteligencia para alguna porción de sus capacidades de descubrimiento durante el año 2018. Una analogía sencilla puede ayudarnos a comprender porque esta estadística tiene mucho sentido. Supongamos que usted ha querido mejorar su condición física por algún tiempo y ha llegado el momento de tomar la decisión y pasar a ejecutar su objetivo, podría tener las siguientes opciones: Ir a la tienda de deportes y comprar el equipo más sofisticado disponible. Adquirir la membresía de algún gimnasio reconocido. Contratar un entrenador que diseñe una rutina personalizada y le asesore con la misma. ¿Según su experiencia o criterio cuál considera que le brindaría los mejores réditos? Regresando al terreno de la inteligencia de negocios y la analítica, supongamos que a nivel empresarial usted ya tiene conciencia con respecto a la importancia de ejecutar iniciativas de analíticos para su transformación digital y el desarrollo de ventajas competitivas en su negocio. Veamos algunas de sus opciones: Realizar una inversión de capital en implementar una solución de analíticos que luego deberá aprender a gestionar. Aprovisionar los servicios de analíticos de un fabricante que involucre uno o más terceros para llevar a cabo su ejecución. Contar con especialistas de datos que le den acompañamiento continuo y trabajen junto con su equipo para obtener el mayor valor de sus datos. ¿Según su experiencia o criterio cuál convendría más? IBM DataFirst DataFirst es el método de trabajo enfocado en transformar su negocio, al tiempo que se obtiene el mayor valor y conocimiento de sus datos. Brinda la estrategia, la experiencia y la hoja de ruta para empoderarle en su viaje desde la primera base analítica hasta la monetización de una empresa cognitiva. Este método le ayuda a resolver sus necesidades más apremiantes, llenando los vacíos existentes y a creando valor en cada paso por medio de un enfoque iterativo, ágil, y centrado en la nube. De esta manera, es posible construir un caso de negocio para avanzar en su transformación analítica, mitigar los riesgos en la implementación de las soluciones y acelerar su tiempo para obtener valor. El método le habilita para… DataFirst consiste en elegir un problema para comenzar a enfocarse en el mismo, identificar las brechas existentes, así como las áreas que deben abordarse; con el fin de establecer un plan para validar y probar la solución propuesta. Como metodología ágil, las construcciones clave del método DataFirst se muestran a continuación: Usted puede COMENZAR EN CUALQUIER LUGAR, lo que le permite centrarse en sus mayores oportunidades de negocios. Le ayuda a LLENAR LOS VACÍOS, de estrategia, experiencia y habilidades demostradas en ciencia de datos y analíticos, ni más ni menos. Finalmente, DataFirst le permite CONSTRUIR VALOR EN CADA PASO, conduciendo en última instancia a una cultura basada en datos, una iniciativa a la vez. GBM su Coach Empresarial para analíticos Dentro del portafolio de Soluciones Integradas de Analíticos, GBM cuenta con iniciativas enfocadas en el Descubrimiento de Datos,  donde usted podrá contar con un servicio de científicos de datos, que por medio del DataFirst y otras metodologías complementarias tales como el Design Thinking, Lean Management y Ágil, le brindarán acompañamiento experto con el fin de generar conocimiento de las fuentes de datos existentes en su organización, discernir la información clave e información relevante, generar prototipos de los datos , así como divulgar a las áreas involucradas los hallazgos relevantes en un enfoque de equipo de equipos. Si quiere ir mas allá de la implementación de una pieza de analíticos, o la adquisición de un servicio que será implementado por terceros, contáctenos. Con gusto se le explicará que nos hace el coach empresarial para analíticos de nuestros clientes.

Digital Tech Trends

01 Noviembre, 2018 | Sobrevivir a tiempos de cambio y no morir en el intento, para las empresas es todo un reto hoy en día. Las compañías han visto en la innovación la forma de subsistir y están buscando cómo transformar sus negocios con tecnologías digitales como: Inteligencia Artificial, Cloud, Contenedores, Microservicios, Kubernets, Robotic Process Automation (RPA), Application Programming Interface (API) y Analitycs Engine. Estas tecnologías les permiten a las empresas innovar en sus aplicaciones de negocios y obtener ventajas competitivas, así como encontrar nuevas formas de interactuar con los consumidores, a través de sus dispositivos, como teléfonos y relojes digitales. Las pasarelas de pagos y los asistentes virtuales que están llegando a los portales de servicio al cliente son ejemplos del uso que se le están dando a estas tecnologías en la transformación digital. Los departamentos de tecnología de las empresas siempre están en búsqueda de sacarle más provecho a sus inversiones de hardware y software (almacenamiento, comunicaciones, middleware, etc) para mejorar el tiempo de respuesta de sus aplicaciones de negocios y reducir costos operativos. La tendencia tecnológica en esta área está liderada por contenedores Docker, el gestor de contenedores Kubernets y la arquitectura de microservicios. Docker es una tecnología de contenerización que permite a los desarrolladores crear aplicaciones auto contenidas en “microservicios”. La construcción de una aplicación requiere de un número importante de recursos y elementos que incrementan la complejidad de preparar el entorno antes de habilitar el desarrollo de la aplicación a utilizar, estos entornos poseen limitantes de escalabilidad, en su gran mayoría delimitados por el tamaño del equipo físico donde reside. Con la contenerizacion se reduce esa complejidad que dispara innecesariamente los costos de hardware/ software y de administración de plataformas. En pocas palabras, con contenedores y microservicios las aplicaciones de negocio se cortan en pequeñas partes completamente independientes haciéndolas más costo-efectivas. Ahora que las aplicaciones de negocio están “cortadas”    en    varias    partes,    es    necesario automatizar su gestión, Kubernets o Kubernetes robustece el uso de contenedores, dado que permite habilitar y gobernar una colección de contenedores permitiendo definir esquemas de alta disponibilidad y habilitación de “clustering” a fin de que las aplicaciones contenidas en los contenedores puedan funcionar como un solo organismo. Al mismo tiempo, proporciona un entorno que permite su monitoreo, control y capacidades para escalar la infraestructura de forma dinámica (haciendo realidad el concepto de nube híbrida) como respuesta al incremento del consumo de la aplicación por los usuarios finales. Lo anterior, ha disparado proyectos  de modernización de aplicaciones para buscar flexibilizar las aplicaciones de negocio y reducir costos operativos en el camino. Lo interesante de este cambio, es que ha entregado a los ejecutivos de negocio herramientas para encontrar nuevas fuentes de ingreso, y en la actualidad, las empresas buscan la habilitación de microservicios para exponer funciones de negocio que tradicionalmente eran consumidos sólo internamente, hacia el mundo exterior. Este cambio de paradigma busca obtener nuevos beneficios al compartir información, y en la mayoría de los casos, monetizar en el proceso. Esta tendencia esta liderada por los APIs o Business APIs. Application Programming Interface o API es un término técnico utilizado por los desarrolladores para definir instrucciones con las cuales comunicarse con otras aplicaciones por medio de código de software. Sin embargo, cuando hablamos de Business APIs no estamos refiriéndonos a un tema técnico, sino a la oportunidad que tiene una empresa de exponer capacidades de negocio y/o información con socios, competidores o cualquier tercero y cobrar por cada vez que éstos utilicen ese Business API. Por ejemplo, la exposición de un servicio de calificación de riesgo que utilicen terceros (mueblerías, tiendas de electrodomésticos, etc.) y que puedan habilitar un perfil del cliente en tiempo real y proveer a través de un servicio con el banco la compra o el financiamiento de algún producto. Los Business APIs son el lenguaje de las startups y de los emprendedores, ya que éstos les permiten crear productos digitales de forma rápida y agregar valor donde nadie más lo está haciendo. Cada vez que una persona pide comida a domicilio por medio de Uber Eats, la aplicación utiliza múltiples Business APIs para dar el servicio, entre ellos los APIs de medios de pago de Visa y Mastercard por los cuales Uber tiene que pagar por su uso. Esta dinámica con las startups y la creación de productos digitales ha puesto mucha presión sobre las empresas para encontrar formas de interactuar con estos nuevos actores en su lenguaje y hacer alianzas que les permitan acelerar la cocreación de productos digitales y con esto garantizar la vigencia de sus productos y servicios con el nuevo consumidor digital. La tendencia que habilita la interacción con startups y la creación de productos digitales es el Cloud. La innovación digital empresarial no es tan sencilla, ya que las empresas con productos análogos no inician con el “lienzo en blanco”. Sin embargo, el Cloud es la plataforma que permite tener acceso a las tecnologías de punta (contenedores, API, Inteligencia Artificial) sin tener que hacer grandes inversiones económicas, permitiéndoles a los equipos de innovación la creación de productos digitales en cuestión de semanas para validarlos con los consumidores y así crear alianzas con startups que sumen al éxito del producto digital. En resumen, el Cloud es la caja de herramientas que utilizan los intraemprendedores de la empresa para utilizar todas las tecnologías digitales emergentes para la creación de productos y servicios nuevos y con ello hacer la realidad la innovación digital empresarial. En esta transformación digital, las empresas también están buscando transformar los procesos de negocio para brindar una mejor experiencia y/o reducir los costos operativos para el procesamiento de las solicitudes de los clientes. Aquí entramos al terreno de la Inteligencia Artificial y Robotic Process Automation. RPA o Robotic Process Automation es una tecnología cuya aplicación se encuentra orientada a optimizar actividades repetitivas dentro de los procesos de las organizaciones y que, en la gran mayoría de los casos, se consideran actividades manuales y transcripción de información de un sistema a otro. Esta tecnología permite de forma bastante rápida la captura del comportamiento de un operador de la computadora y grabar la secuencia de pasos u operación diaria. Como resultado de lo anterior, tenemos “Robots” en la ejecución de las tareas repetitivas que realiza un operador humano y que, en la mayoría de los casos, su horario de ejecución se extiende de las 8 horas diarias a 24. Un conjunto de robots puede ser visto como una fuerza de trabajo virtual. Es por esto, que RPA está impulsando proyectos enfocados a reducir el costo operativo y aumentar la eficiencia operativa dentro de los procesos de la empresa. Sin embargo, no todas las tareas realizadas por las personas son estructuradas y repetitivas, algunas requieren de cierta capacidad de análisis de información y entendimiento del contexto para tomar la decisión correcta, es aquí donde la Inteligencia Artificial entrega herramientas que permiten simular algunas capacidades cognitivas humanas como el aprendizaje por medio de la lectura de información (Machine Learning), identificación de patrones, el procesamiento del leguaje natural por medio de la escucha y el habla, y finalmente incorporar estas capacidades a los procesos para hacerlos más eficientes y crear una mejor experiencia para el cliente. Los máximos exponentes de esta tendencia son los asistentes virtuales que están llegando a los portales de servicio al cliente y/o a los canales digitales que utilizan los consumidores como Facebook Messenger, Siri, Alexa, etc. Sin embargo, las capacidades de la Inteligencia Artificial pueden apoyar en muchas más tareas y procesos dentro la organización que permitan competir de mejor manera en la economía digital. Finalmente, toda esta explosión de interacciones digitales genera una cantidad de datos sobre los consumidores que para las empresas son difíciles de almacenar, analizar y capitalizar en hallazgos que les permitan definir mejores estrategias. La tendencia en esta área son los Analytics Engine. Los Analytics Engines proporcionan las herramientas para realizar análisis sobre volúmenes de datos elevados, éstos se apoyan en los Datalakes, que es un lugar para almacenar datos estructurados y no estructurados, así como un método para organizar grandes volúmenes de datos muy diversos de diversas fuentes. Finalmente, estas tecnologías combinadas con Machine Learning y Deep Learning permiten a las empresas sacarle provecho a la información y crear estrategias de monetización basadas en datos. La adopción de todas las tecnologías digitales mencionadas en este artículo puede ser intimidante, es por ello que hemos creado el foro “Digital Tech Trends” donde convocamos a diferentes líderes de tecnología dentro de las empresas por medio de webinars mensuales y eventos presenciales, para acercarlos a estas tendencias y mostrarles casos de uso prácticos que pueden considerar implementar dentro de sus organizaciones para potenciar una relación estratégica entre los líderes de tecnología con los líderes de negocio. IBM ha entendido el reto que tienen los líderes de tecnología en esta trasformación digital y es por esto que ha consolidado todas estas tecnologías digitales en un solo producto llamado IBM Private and Public Cloud, con el cual las empresas pueden adoptarlas en cuestión de un par de semanas, y con ello iniciar la modernización de sus aplicaciones, la monetización de Business API, innovación para la creación de productos digitales, creación de fuerzas de trabajo basadas en RPA e Inteligencia Artificial, definir estrategias de monetización de datos y con todo ello avanzar en la transformación digital de sus negocios análogos. Por su parte, GBM con esta iniciativa busca apoyar a los líderes de tecnología brindándoles las herramientas  para  experimentar  sobre  las nuevas tendencias de  nube  híbrida  y  que puedan tomar la mejor decisión sobre dónde invertir su tiempo y dinero para  agregar capacidades digitales a la empresa.  

El viaje de RPA

01 Noviembre, 2018 | Cuando pensamos en robots, nuestra mente busca referencias de la ciencia ficción como, R2D2, Wall-E, o inclusive Terminator. Imaginamos creaciones mecánicas que nos ayudan en nuestra vida cotidiana con capacidades que complementan o inclusive mejoran las propias de nuestra condición humana. La realidad, aunque un poco diferente, de los robots que idealizamos no está lejos de la concepción original de la ciencia ficción, nuestra visión del futuro está sucediendo ahora. Gartner prevé que el mercado de automatización a través de robots de software crecerá un 41% año tras año hasta el 2020. Forrester estima que en el 2021 habrá más de 4 millones de robots haciendo diferentes tipos de tareas administrativas, de oficina o de ventas.   Adentrándonos en RPA Los robots de software entran en este panorama como una tecnología disruptiva cuyo potencial es capaz de crear nuevos paradigmas de negocio. No tienen pies ni manos, pero son capaces de interactuar con las estaciones de trabajo como lo haría una persona, imitando sus acciones sobre los aplicativos. RPA (Robotic Process Automation) es la práctica de automatizar actividades de negocio, utilizando robots de software, para realizar tareas principalmente transaccionales, y repetitivas, basadas en reglas definidas y sin interferencia de decisiones humanas. El término RPA se acuña a principios del año 2000, y no surge particularmente de una nueva tecnología central, sino es más una evolución de tecnologías como “screen scrapping”, y automatización de flujos de trabajo, e incorpora otras como reconocimiento óptico de caracteres (OCR). Agrega además funcionalidades para grabar acciones ejecutadas en una computadora, y la posibilidad de crear robots de una manera visual mediante facilidades de arrastrar y soltar sin la necesidad de que las personas tengan conocimientos profundos de codificación. El potencial de RPA es emocionante, promete aumentar eficiencia, reducir costos, y un rápido retorno de inversión, sobre todo porque un robot no es susceptible a fatiga o desmotivación; sin embargo, no se debe olvidar un hecho clave: no importa cuán poderosa sea la tecnología, se basa en el diseño y la programación humana, por lo que tiene limitaciones. La propuesta de valor La propuesta de valor de RPA se basa en las bajas barreras que ofrece la tecnología, ya que tiene un costo razonable, permite desarrollar rápidamente, los tiempos de implementación de un robot de software se miden en semanas, y no es invasiva, es decir no depende que se modifiquen sistemas existentes. Para lograr el éxito es esencial tener un entendimiento claro de las necesidades, prioridades, y procesos de la organización, así como las capacidades propias de la tecnología para escoger los casos de uso que mejor se adapten. Se recomienda siempre entender ¿qué se quiere automatizar? Y ¿por qué? y detallar si las actividades identificadas requieren previamente de una mejora. RPA no es un destino final sino un viaje. Revisemos las etapas de este viaje: Establezca el camino y enfoque el esfuerzo: •    Concéntrese en establecer prioridades de automatización para obtener una lista de iniciativas basadas en la ponderación de los objetivos de negocio con respecto a las necesidades. •    Elija un socio tecnológico que lo apoye en la adopción asertiva de RPA. •    Obtenga el compromiso ejecutivo. Descubra/seleccione/evalúe: •    Detalle los pasos de los procesos candidatos para entender el alcance de la automatización, además filtre si el proceso candidato es idóneo para RPA como un todo o una parte de éste. •    Evalúe los beneficios y la factibilidad técnica.  •    Determine si el proceso levantado requiere de mejoras y estandarización antes de ser automatizado. •    Establezca el Pipeline de Automatización: Consolide las iniciativas de automatización que pasaron por los filtros previos y están listas para continuar. Defina/implemente/entregue: •    Defina, implemente, y entregue las soluciones de automatización de manera continua. •    No olvide proveer acompañamiento para la adopción efectiva. RPA se puede aprovechar de múltiples maneras y la forma de utilizarlo es única en cada organización. La flexibilidad y facilidad de implementación puede acercarnos a una transformación de negocio completa, en la  que en el camino se puede incorporar la Inteligencia Artificial, o la gestión de procesos de negocio a través de tecnologías como BPM. Lo importante es tener la determinación de iniciar, enfrentar el reto, y emprender el viaje, para mantenerse competitivo en la era de la automatización.  



Escribe un comentario