Tendencias Emergentes

Contenidos:

  1. Introducción
  2. Sistemas de Información Corporativos
  3. Integración entre Empresas
  4. Sistemas de Información de la Reingeniería de Negocios
  5. Calidad Total
  6. Internet
  7. Conclusión


Introducción

Quizá uno de los aspectos más difíciles de entender en este capítulo, es el del título mismo... ¿A qué se refieren las "Tendencias Emergentes"?  Si se observa la tabla de contenidos, bien, no parece haber nada muy novedoso (salvo algunos relativos a Internet, tal vez).

Uno de los más graves problemas a los que se ha debido enfrentar la Ingeniería Informática, ha sido la tendencia de nuestros ingenieros a aplicar cualquier nueva tecnología que esté disponible en el mercado... Parece ser una de las deformaciones profesionales, la que indica que hay que tener siempre el último modelo de computador, televisor, equipo "entero-fónico", etc. Y por supuesto, esta actitud se lleva directo a la empresa: "Jefe, salieron los grabadores de DVD... ¿cuándo tendremos uno?" o "¿Y, compramos la máquina fotográfica digital?"... Como en todas las generalizaciones, se puede reclamar y presentar el ejemplo en contrario ("no, yo conozco a uno que no es así").

¿Cuál es el problema?, muy simple, en demasiados casos, estas nuevas tecnologías no han sido evaluadas, y ya están involucradas en algunos sistemas críticos... O peor aún, no hay claridad del uso que estas tecnologías podrían llegar a tener en la empresa... Simplemente, son "juguetes" para el personal de informática.

Con ello, es entendible que muchos gerentes consideren a la gente de informática como un "gasto" más que una "inversión" (en el primero de estos términos, los recursos utilizados se "pierden", en el segundo, se "recuperan en el tiempo").

Cuando se habla de "Tendencias Emergentes", se habla de tecnologías existentes, presentes durante algún tiempo en el mercado, y que ya han sido suficientemente validadas, como para que el Gerente General pueda invertir en forma segura en ellas.

[Contenidos] [Índice General]


Sistemas de Información Corporativos

Cuando se habló del "Legado Histórico", se mencionaron los efectos de no usar metodologías, de hacer las cosas independientemente. Por mucho que COBOL funcionara, los problemas estaban allí y estaban muy presentes y se incrementaban dado el poder que significaba que el programador pudiese crear "archivos de datos" a su libre albedrío. La piedra de tope, que inició un proceso de frenado (aún cuando está muy distante el frenado total), fue la aparición de tecnologías de bases de datos, soportados por el paradigma "Cliente / Servidor".

Cliente / Servidor

El paradigma Cliente/Servidor es un principio bajo el cual se propone un uso "racional" de los recursos computacionales conectados a una red de datos.

El principio es simple, si dos o más máquinas desean "comunicarse" o "compartir recursos", una de ellas definirá los protocolos de comunicación mediante los cuales el resto podrá acceder al "servicio" definido (sea de comunicación o de compartición de recursos).

La idea no es nueva, ha estado presente desde los inicios de la computación. Si se recuerda que hace poco más de 20 años, la única forma de computación estaba definida por los grandes "mainframes", máquinas de gran capacidad de procesamiento (desde la perspectiva de los usos que se le daban entonces), que además requerían de instalaciones especiales (libres de polvo, con refrigeración asistida, espacios importantes dedicados a esto, etc.), con esas condiciones, lo lógico era que los usuarios compartieran este "carísimo recurso". Sólo que en ese tiempo, lo importante era compartir el recurso "procesador", por lo cual, las máquinas en la red de datos sólo podían ser "terminales tontos" que desplegaban la información que el procesador central enviaba:

Con la aparición de los computadores personales, y en función de ellos, las redes de área local, se produjo la convergencia de ambas tecnologías. Se llega así, a la definición de principios de comunicación "inteligentes", donde se aproveche la capacidad de procesamiento superior de la máquina grande (así como su capacidad de almacenamiento) y no se desperdicie la capacidad de procesamiento del computador personal:

Cliente / Servidor, trajo consigo una serie de mejoras a la forma de enfrentar el desarrollo de Sistemas de Información, pero una de las mejoras más importantes, consistió en la adopción de estándares de desarrollo, que en el peor de los casos eran controlados por el responsable de las estructuras de almacenamiento (base de datos) del servidor. De esta manera, se abrieron las puertas a nuevas oportunidades:

Integración Intra Empresa: Bases de Datos Corporativas

Al unificarse los estándares de desarrollo, fue posible empezar a integrar los diversos sistemas de las empresas, el principio más básico para ello, es compartir la información de las Bases de Datos en un único servidor y que los usuarios de cada uno de los sistemas accedan a su propio subconjunto de datos.

Esta opción dio excelentes resultados para empresas de tamaño relativamente pequeño. Sin embargo, para empresas de gran tamaño (Transnacionales, Fiscales, etc.) o, cuando menos, geográficamente distribuidas (mineras, otras), la red de área local que soporta el esquema C/S es claramente insuficiente. Se intentó entonces otras opciones de acceso remoto, pero los costos y los bajos tiempos de respuesta, lo hacían impracticable.

Bases de Datos Distribuidas

En este orden de cosas, se inserta la extensión a Cliente/Servidor que permite que las empresas geográficamente distribuidas, puedan disponer de un servidor independiente en cada uno de los centros de trabajo:

Bajo este mecanismo, los usuarios de cada centro geográfico disponen de sus datos locales, para todos los sistemas que utilizan, y cuando necesitan un dato de otro centro geográfico, entonces el servidor local se comunica con el servidor remoto (del otro centro geográfico) y pide la información de un modo trasparente al usuario. En este tipo de organización del equipamiento computacional, un usuario prácticamente no nota cuando le responde el servidor local o el remoto, en el último caso, a lo más tiene unos segundos adicionales de espera.

Un esquema muy parecido al descrito, ocurre con la "replicación" en línea de la Base de Datos, en esta idea, Cada servidor maneja una copia completa de la Base de Datos, es decir, datos locales y datos remotos. Para asegurar la integridad de la información, los servidores se comunican entre sí, sobre bases regulares, transfiriendose todos los datos que hayan sufrido cambios, de manera que cada copia es completamente operativa y sirve como respaldo de las demás en caso de algún imprevisto. Sin embargo, este esquema requiere de mayor inversión, tanto en hardware (servidores más poderosos) como en comunicaciones (intercomunicación entre servidores).

Procesadores Analíticos

Con la disponibilidad de los datos en una Base de Datos estandarizada, rápidamente surgieron herramientas que permitían a un usuario medianamente experto (sin muchos conocimientos de programación, pero si expertos en el tema de fondo) realizar sus propias consultas.

Con el tiempo, los requerimientos de estos usuarios fueron creciendo cada vez más, al punto de complicar bastante los cruces requeridos de información (por ejemplo: saber cuantas han sido las ventas diarias durante un periodo dado, de un tipo de producto específico, que han sido realizadas entre las 10:00 y las 11:00, en la sucursal principal). Para alcanzar esos niveles de detalle, con las herramientas tradicionales, se requería de una cantidad importante de trabajo y, no era raro que el reporte quedaba listo después de que la decisión para la cual se requería el reporte, había sido tomada.

Surgen entonces, los Procesadores Analíticos en Línea (OLAP: On Line Analytical Processor).

Estas herramientas, son grandes "mezcladores" de información, que reunen y mantienen actualizada (y consistente) una base de datos especial, que realiza por sí sola todos los cruces de información posibles y los deja disponibles a los usuarios para que, utilizando herramientas parecidas a las anteriores, puedan generar en línea todos los análisis que requieran.

Los primeros de ellos, debido a consideraciones tecnológicas, tenian un proceso de "captura de informacion", en el cual se armaba un "cubo de decisiones" (básicamente, consiste en guardar información redudante, que permita dar una respuesta rápida a cualquier posible consulta). En la actualidad, considerando las características de tiempo de respuesta del hardware (velocidad de CPU y Disco), la información sólo reside en la base de datos y se consulta -realmente- en línea.

[Contenidos] [Índice General]


Integración entre Empresas

Si consideramos una empresa "A", que posee un sistema de bodega, que emite avisos al jefe de la bodega, cada vez que algún producto queda con un stock inferior al mínimo definido. Que permite que este jefe de bodega (o alguno de sus subalternos) imprima una solicitud de cotización por el producto, a una empresa B. Que finalmente, alguien deberá faxear la solicitud a la empresa "B"...

Si consideramos que la empresa "B", dispone de un sistema de ventas en el que están registrados todos los clientes (incluida la empresa "A") y que posee toda la información respecto de los productos, sus precios, ofertas, condiciones de venta, disponibilidad en bodega, etc. Si este sistema permite que su usuario imprima una cotización con sólo digitar el rut del cliente y el código de él o los productos solicitados. Que finalmente alguien deberá faxear la cotización a la empresa "A"...

Si consideramos además, que en todo este proceso, no hubo mayor intervención de inteligencia humana, pues como la empresa "A" es cliente antiguo de la empresa "B", las condiciones  comerciales aplicables están prácticamente fijas en el tiempo...

Entonces, ¿Por qué no interconectar ambas empresas y que todo este trabajo simple sea hecho entre los computadores de ambas empresas?

La respuesta parece lógica "que se haga", sin embargo, se estan ignorando algunos aspectos fundamentales...

Si, como se vió en el Legado Histórico, las empresas tienen problemas para definir un estándar al interior de sí mismas, la esperanza de definir un estándar entre distintas empresas es más baja aún... Si consideramos además que la empresa "B", no sólo vende productos a "A", sino que también a "C", "D" ... "N", entonces el trabajo que requeriría implantar en cada uno de los clientes un mismo estándar, está fuera de las posibilidades reales.

Como el objetivo no deja de ser interesante, se buscó un mecanismo que permitiese solucionar el problema de la comunicación y de la estandarización, cuyos costos fueran razonables. Surge entonces la tecnología para el intercambio electrónico de datos (EDI: Electronic Data Interchange) cuya principal característica es que no estandariza los sistemas en sí (cosa imposible) sino el mecanismo de comunicación, y lo hace sobre bases bastante simples y, a la vez, poderosas.

Cabe señalar que EDI aún mantiene vigencia, pues presenta convenientes esquemas de seguridad. Sin embargo, su uso masivo ha ido en franca disminución desde la aparición de Internet.

[Contenidos] [Índice General]


Sistemas de Información de la Reingeniería de Negocios

Durante la primera mitad de la década de los noventa, estuvo muy de moda una teoría de negocios que fue denominada la "Reingeniería". Para entender el que y por que de la reingeniería, es bueno partir la historia en la década de los ochenta, que es la gran década para la puesta en marcha de las teorías del libre mercado. Mientras en Chile estaban los "Chicago Boys", en USA aparecían una raza particular de hombres de negocio que serían denominados los: "YUPpies" (expresión derivada de la sigla YUP: Young Urban Professional) y que se caracterizaban por un completo desprecio de las normas éticas y morales (e incluso, en más de un caso, legales) pues su único objetivo eran "las ganancias" del negocio (lo que la mayoría de las veces se transformaba en un lucrativo movimiento de acciones). Es el periodo de mayor importancia para "Wall Street" y quienes, por ser muy jóvenes, no recuerdan o no vivieron esas épocas, siempre pueden encontrar en el video club o en la tv-cable, una serie de películas que muestran la forma de actuar de estos personajes...

La era de los YUPpies, acabaría pronto.. su interés desmedido por las ganacias (hay que obtener el primer millón de dólares antes de los veinte años) y el desprecio por normas sociales (que tuvo un alto costo social) apagaron la llama que alimentaba esta raza. Sin embargo, las empresas aprendieron la lección: en el futuro el tema sería: competitividad. Una empresa competitiva, no es un bocado fácil de obtener para los financistas en Wall Street (y ellos prefieren los bocados fáciles y jugosos).

En ese marco, surge una generación de analistas empresariales: los "consultores" (si, los mismos de los chistes) quienes se dedican a recorrer las empresas buscando formas de mejorar sus estructuras y mejorar la competitividad de ellas. Un grupo importante, descubre que aún después de los YUPpies, existen (principalemente en USA) una serie de empresas "familiares" que transan acciones de bajo perfil, y que sobreviven "de milagro", pues sus mecanismos administrativos y de producción son malísimos.

Son tantas las empresas en estos casos, que una serie de consultores proponen "reinventar" la empresa. Es decir, hacer un revisión profunda y radical de los procesos de negocio que permita redefinirlos para alcanzar un incremente sustancial de las utilidades del negocio (tanto por aumento de ventas, como por disminución de costos). Ese es el esquema de trabajo que será denominado "Reingeniería de Negocios".

Hacer una descripción completa de ese tema, está absolutamente fuera del alcance de este documento. Sin embargo, desde la simple definición general de "Reingeniería", se puede observar que si hay una "revisión profunda y radical de los procesos de negocio", significa que habrán efectos importantes en los Sistemas de Información.

En primer lugar, la aplicación de un proyecto de reingeniería tendrá -por lo general- el efecto de dejar obsoletos los SI existentes. La misma revisión, llevará a la inevitable conclusión de que es importante que los datos se digiten donde son generados. Y que se necesitan "Sistemas de Información Corporativos".

En segundo lugar, el proyecto de reingeniería puede concluir la necesidad de implantar, en la empresa, herramientas de ayuda o soporte al trabajo grupal. Si esto llega a ocurrir, se necesitará que los sistemas de información "interactuen" con dichas herramientas.

En cualquier caso, al rehacer sistemas, siempre se obtendrá el beneficio de "estandarizar" sistemas, incluso hasta las metodologías de desarrollo de estos.

La pregunta obvia es: Si la reingeniería suena "tan bien" como se propone, porque no sigue presente. Para ello es bueno mencionar el caso "genérico" que ejemplificaba los beneficios de la reingeniería:

Se trata de una empresa, dedicada a vender repuestos para televisores que, habitualmente, tenía serios problemas de manejo en su bodega, llegando a tener pérdidas del orden del 25% al 30% del inventario (ya fuera por manipulación indebida que terminaba con artículos destruídos o por simple hurto). Para complicar aún más el ambiente, era común que se perdieran las órdenes de compra, siendo habitual que un cliente llegara a enviarla 2 o más veces, lo que se traducía en una notable demora en los despachos. A este tipo de empresa llegan los consultores, la "desarman y rearman" y luego de la consultoría se registran ventas por sobre el 300% de lo habitual, y se reducen los costos a una fracción (25%).

Esa era la promesa de la reingeniería, bajar costos y aumentar ingresos. Incremento de utilidades por sobre el 1000%. Sin embargo, aún sin ser un genio de las finanzas, es evidente que no todas las empresas pueden estar tan mal administradas. De hecho, una encuesta de 1994, demostraba que los proyectos de reingeniería exitosos, se ubicaban muy por debajo del 50%. No solo eso, una cantidad no despreciable habían sido abandonados a mitad de camino, pues no se veia probable que el proyecto se costeara a si mismo (que el aumento de utilidades, cubriera el costo del proyecto).

Sin embargo, de ese periodo se aprenden algunas lecciones importantes:

De las teorías utilizadas a la hora de aplicar reingeniería, hay una que tuvo un desarrollo independiente de los proyectos de reingeniería y que, hasta el día de hoy, siguen vigentes.

Workflows

Uno de los aspectos más importantes de aquellos aprendidos con la Reingeniería, es que la organización es un todo en función de los procesos de negocios. No importa que tan lejos se esté del mesón de atención a clientes, en el fondo, la tarea realizada es una más de las actividades necesarias para poder cumplir con las necesidades del cliente.

Al observar la organización de esta forma, surge la necesidad de poder hacer un seguimiento al flujo del trabajo, pero no sólo un seguimiento, sino que se apoye directamente a las personas que hacen el trabajo.

[Contenidos] [Índice General]


Calidad Total

[Contenidos] [Índice General]


Internet

[Contenidos] [Índice General]


Conclusión

[Contenidos] [Índice General]