jueves, 26 de marzo de 2009

La Complejidad en un sistema de información.

Un sistema de información es complejo cuando consta de diversas y crecientes plataformas, aplicaciones, rutinas, prácticas y estructuras organizacionales que se integran bajo un entorno cambiante.
Imagen Collage de mapas de complejidad
Para definir si un sistema de información es complejo, es necesario definir complejidad. Iniciemos la exploración del término en su origen.

Etimológicamente “complejo” proviene del latín complexus que significa circunscrito o rodeado, que a su vez proviene de complecti: "entrelazado."

En el diccionario significa “abrazar, ceñir, rodear por todas partes algo” y en otra acepción “conjunto o unión de dos o más cosas”.

En el Instituto de Investigación sobre la Evolución Humana definen la complejidad de una manera general como “una propiedad intrínseca de sistemas del universo que evolucionan al adquirir un mayor y más diversificado número de elementos que interactúan entre ellos”.

Hanseth define que hay complejidad en los Sistemas de Información si hay presentes diferentes componentes, tipos de vínculos, y velocidad de cambio. Evidentemente hay concordancia entre los conceptos. Se entiende éste último como un caso particular del anterior.

Hanseth resalta que la complejidad surge cuando plataformas, aplicaciones, rutinas, prácticas y estructuras organizativas están integradas. Esta visión contrasta con la tradicional a la que le basta con referenciar sólo a la tecnología: componentes de gestión de bases de datos, de seguridad y de comunicaciones.

La definición de complejidad tiene tres puntos focales. 1 - Los componentes que son los que se entrelazan o “integran” en el lenguaje moderno de las tecnologías de información y comunicaciones. 2 - Los componentes tecnológicos interaccionan y evolucionan vía la mencionada integración y el diseño (o rediseño), los cuales son producto de la intervención humana. 3 - La diversidad de tipos de componentes. A los componentes tecnológicos debemos añadir los vínculos con componentes organizacionales e individuos.

Emerge de nuevo la necesidad de incorporar el factor social para dar cuenta global de la complejidad de un sistema de información.

Un nuevo enfoque sobre el tema es expuesto por Yasmin Merali y se puede ver en la entrada correspondiente haciendo clic aquí.

Bibliografía:

- ICT, Risk and Complexity. HASETH, Ole y CIBORRA, Claudio (editores) Cornwall, Gran Bretaña. 2007. Edward Elgar Publishing.
- La Complejidad. MURGUÍA AGUDELO, Guillermo y ALCALÁ RIVERO, José Guillermo. Instituto de Investigación sobre la evolución Humana AC. Página WEB Evolución y Ambiente; Sistemas complejos: http://www.iieh.com/complejidad/articulos_complejidad01.php. Consultada el 26 de marzo de 2009.
- http://www.etymonline.com y Diccionario de la real Académia española de la lengua.

miércoles, 25 de marzo de 2009

TIC, riesgo y complejidad. (3)

La investigación presenta una tercera teoría de la complejidad: la teoría actor-red (Actor-Network Theory - ANT por sus siglas en inglés ). ANT no ha sido tradicionalmente etiquetada como teoría de la complejidad, pero muy bien se podría decir que la complejidad ha sido la cuestión que aborda ANT en la investigación. No es la complejidad en todas sus variedades, sino la complejidad creada por la densa red de relaciones entre los científicos y los no científicos (es decir, social, organizativa, política, etc...) dentro de los estudios de la ciencia y de manera similar entre lo tecnológico y lo no tecnológico en los estudios de la tecnología. En consonancia con ello, recurrimos a ANT para develar y analizar un aspecto de la definición de complejidad presentada anteriormente: cómo los diferentes tipos de elementos están relacionados.

Recientemente la complejidad se ha abordado explícitamente en ANT (Law y Mol, 2002). Una cuestión que se pone de relieve es lo que a veces se etiqueta como “órdenes desórdenes”, lo que significa que cuando se intenta poner orden en un dominio o "mundo" (por ejemplo mediante la creación de una nueva norma), por desgracia, el dominio o "mundo" a tratar está conectado a otros dominios o 'mundos' más allá de lo que somos capaces de ver y afrontar. Por consiguiente, cuando estamos tratando de poner orden en un dominio, como un efecto secundario estamos creando desórdenes en otros (Berg y Timmermanns, 2000).

El libro también presenta las más pertinentes investigaciones sobre las tecnologías complejas desde el campo de los Estudios de la Organización. Esto incluye en primer lugar a la Teoría de accidentes del trabajo normal (1984) de Charles Perrow. Sostiene que los sistemas tecnológicos complejos que están estrechamente aparejados y caracterizados por la complejidad interactiva (a diferencia de las interacciones secuenciales) nunca serán completamente seguros – los accidentes son normales. Esto se debe a que nunca tendremos un conocimiento completo acerca de cómo van a operar en todas las circunstancias. En consecuencia, no podemos asegurarnos de que estarán libres de errores o comportamientos impredecibles. Son riesgos inherentes a su existencia. De esta manera la teoría de Perrow está bien alineada con las teorías presentadas anteriormente, y apoya la hipótesis que se explorarán en nuestra investigación.




Concluye Hanseth que no construir sistemas complejos es la única estrategia que se puede recomendar sobre la base de la investigación mostrada en el libro. (Y las hipótesis acerca de cómo se pueden reducir los riesgos mediante la reducción de la velocidad del cambio y el crecimiento significa, también, evitar hacer sistemas complejos según la definición de complejidad presentada al comienzo.) Pero, de hecho, no la ven como una estrategia realista. Creen que, entre otros procesos, la globalización hace que el mundo sea más complejo, más impredecible y rápidamente cambiante. Esto generará enormes necesidades de más sistemas de información integrados - que todavía es el mantra de los SI. En consecuencia, creen que las soluciones integradas de TIC traerán más combustible a los procesos haciendo a la Sociedad del Riesgo y a la Modernización Reflexiva más real y a las organizaciones de alta fiabilidad más raras. Desgraciadamente.



La exposición es muy interesante, pero la conclusión decepcionante. No obstante, Hanseth, en colaboración con otro académico de la Universidad de Oslo han sacado en fechas recientes una propuesta metodológica para abordar la complejidad en los sistemas de información. Otra perspectiva es la de Yasmin Merali, la cual se enfoca en que ante la complejidad hay que cambiar la perspectiva de estudio. Estoy escribiendo la entrada correspondiente.


Referencias mencionadas en los parágrafos seleccionados:

Berg, M. and S. Timmermanns (2000), ‘Orders and their others: on the constitution of universalities in medical work’, Configurations, 8(1), 31–61.
Law, J. and A. Mol (2002), Complexities: Social Studies of Knowledge Practices, Durham, NC: Duke University Press.
Perrow, C. ([1984]1999), Normal Accidents: Living With High-Risk Technologies, New Jersey, USA: Princeton University Press.

Basado en ICT, Risk and Complexity. HASETH, Ole y CIBORRA, Claudio (editores) Cornwall, Gran Bretaña. 2007. Edward Elgar Publishing.

TIC, riesgo y complejidad. (2)

Imagen de decenas de 'nodos' inreconectadosLa complejidad podría definirse de una manera simple e intuitiva como la "suma" del número de componentes y conexiones entre ellos. Schneberger y McLean (2003) han propuesto una definición un poco más sofisticada - pero aún muy simple -. Ellos ven la complejidad dependiente del número de diferentes componentes del sistema, del número del tipo de vínculos, y de su velocidad de cambio. Aunque la primera definición parece ser similar a la adoptada por los autores del informe de la BCS / RAE, hemos adoptado la última ya que tiene bien en cuenta la complejidad creada por el aumento de la integración como se ha señalado anteriormente. La complejidad a que hace referencia el informe de BCS no es realmente compleja de acuerdo con esta definición porque sólo se habla de sistemas de componentes tecnológicos - que es cuando los componentes y los vínculos entre ellos son todos tecnológicos. Podríamos decir que esos sistemas sólo son complicados (Latour, 1999, p. 304). Uno podría decir, sin embargo, que los sistemas de TIC, como tecnología pura, contienen componentes tecnológicos de muchos tipos tales como componentes de gestión de bases de datos, componentes de seguridad y de comunicación. Sin embargo, la segunda definición dice que la complejidad "real" surge cuando componentes de diferentes tipos se han integrado. Este es el tipo de complejidad que surge cuando plataformas, aplicaciones, rutinas, prácticas y estructuras organizativas están integrados.

El capítulo escrito por Kallinikos señala tres cuestiones fundamentales. La primera de ellas es nuestra relación con nuestro mundo y el hecho paradójico de que cuanto más conocimiento (científico) tenemos sobre el mundo que habitamos y entre más tecnología avanzada desarrollamos para ayudarnos al control de nuestro mundo, más parece irse más allá de nuestro control, esto es, hay más riesgos. Los mejores ejemplos de esto son el calentamiento global y las posibles consecuencias del cambio climático, o incluso peor - los riesgos de una guerra nuclear que pueda destruir todo el planeta. Kallinikos atribuye esta paradoja al hecho de que por mucho conocimiento que producimos, nuestro conocimiento sobre nuestro mundo será incompleto. Además, nuestro mundo y el conocimiento acerca de él no son independientes. Cuando estamos produciendo conocimiento sobre nuestro mundo, al mismo tiempo estamos construyendo un mundo más complejo.

La segunda cuestión que examina Kallinikos se refiere al tiempo y lo que él llama la «orientación futura". En el núcleo de este argumento está el hecho de que nuestro mundo es inherentemente contingente e imprevisible. No podemos eludir este hecho a pesar del cálculo anticipado de todos los dispositivos que se supone nos ayudan a predecir el futuro - o al menos al cálculo de la probabilidad de diferentes escenarios. Además, la naturaleza contingente de nuestro futuro es una condición previa para muchas actividades. El mundo está constituido de manera abierta y plural, y se presta a iniciativas e intervenciones que podrían hacerlo diferente del actual. Sin riesgo no hay oportunidades y, por tanto, no hay lucro, y sin ánimo de lucro tampoco hay iniciativas económicas.

La tercera cuestión que discute Kallinikos es la relación entre tecnología y riesgo. La tecnología es tradicionalmente vista como una herramienta para el control y, en consecuencia, la gestión o la reducción de riesgos. Sin embargo, existen importantes limitaciones a cómo la tecnología puede abordar las cuestiones aquí mencionadas. Basándose en Luhmann, Kallinikos retrata a la tecnología como una forma estructural cuyas principales características son el cierre y la simplificación funcional. Esto significa que podemos tratar con la realidad mediante la simplificación de ésta en un dominio cerrado y especificar la forma en que la tecnología puede hacer frente a cada uno de los elementos en este ámbito y en sus estados. La tecnología, entonces, tiene limitaciones importantes cuando se trata de incertidumbre - en palabras de Kallinikos: "la tecnología trata con lo inesperado excluyéndolo ".

Después de este debate general sobre los riesgos y la tecnología Kallinikos se vuelve hacia lo que es específico para los sistemas informáticos de gran escala resaltando tres aspectos: auto-referencialidad, interconectividad y des-secuenciación del tiempo. La auto-referencialidad denota el hecho de que la información no es sólo datos relativos a la realidad. Cuanto más información recogemos y procesamos, más información vamos a producir relativa a la información. Esto puede llevarnos a una especie de complejo sistema autónomo de información y una “desanclaje de la realidad inmediata”. Los otros dos aspectos de los sistemas de información de gran escala se refieren más directamente a las cuestiones relativas a la integración, la complejidad y el riesgo que se ha mencionado anteriormente. A través de una mayor interconexión de los sistemas de información, creamos sistemas más complejos que son más difíciles de controlar. Y este aumento de la interconexión de los sistemas contribuye a lo que denota Kallinikos como des-secuenciación del tiempo, en dónde los procesos estarán incrementalmente más vinculados, no sólo de manera secuencial, sino también ejecutándose en paralelo. Este tipo de vínculo paralelo entre los procesos crea lo que Perrow (1984) define como complejidad interactiva (en contraposición a las interacciones lineales) y que él considera como la fuente principal de imprevisibilidad y falta de fiabilidad de los sistemas tecnológicos.

La complejidad apenas se menciona en los escritos de Beck. Sin embargo, su teoría muy bien puede ser vista como una teoría de la complejidad, porque lo que está haciendo más importantes los riesgos en nuestro mundo es precisamente su creciente complejidad - una complejidad que se crea a través de la investigación científica y el desarrollo de soluciones tecnológicas cada vez más sofisticadas. Y el núcleo dinámico de este complejo mundo es la propagación de los efectos secundarios. Beck pone de relieve un patrón particular de cómo los efectos secundarios a menudo se propagan. No sólo con la creación de una cadena de efectos secundarios (efecto dominó), sino que cada vez más a menudo forma efectos bumerán - se regresa al lugar del acto original que disparó toda la evolución que se estaba llevando a cabo y causa que el resultado sea más o menos el contrario de lo que pretendía el actor. Esto es lo que Beck llama la reflexividad. Lo que se encuentra como corazón del libro es la medida en que tales procesos reflexivos, que son auto-destructivos, se crean mediante la integración de soluciones de TIC.


Ilustración gráfica del efecto dominó
El libro complementa y compara la teoría de Beck con algunas otras. Esto incluye las teorías de las Ciencias de la Complejidad. Los efectos secundarios son también el centro de estas teorías. Sin embargo, sus autores y partidarios se han centrado en fenómenos diferentes a los de Beck - en particular en las ciencias naturales y la economía (normalización), y han puesto de manifiesto otros patrones creados a través de la propagación de los efectos secundarios. En lugar de los procesos auto-destructivos, se han centrado en los auto-reforzantes. Sin embargo, los procesos reflexivos, que se presentan en el libro son, al mismo tiempo, auto-reforzantes. Esto ocurre porque los procesos que tienen por objeto controlar la complejidad logran lo contrario, porque el control trata de ser alcanzado de maneras que aumentan la complejidad. La complejidad se inicia y se convierte en auto-reforzante.


Referencias mencionadas en los parágrafos seleccionados:

Beck, U. (1986), Risk Society: Towards Another Modernity, London: Routledge.
Beck, U., A. Giddens and S. Lash (1994), Reflexive Modernization, Cambridge: Polity Press.
Schneberger, S.L. and E.R. McLean (2003), ‘The complexity cross: implications for practice’, Communications of the ACM, 46(9), September, pp. 216–25.

Basado en ICT, Risk and Complexity. HASETH, Ole y CIBORRA, Claudio (editores) Cornwall, Gran Bretaña. 2007. Edward Elgar Publishing.

TIC, riesgo y complejidad. (1)

Portada del libro ICT, riesgo y complejidad
A continuación presento una selección de parágrafos del prefacio del Libro “ICT, risk and complexity” con Ole Hanseth y Claudio Ciborra como editores del mismo. En la traducción mantuve la difícil redacción dada por Ole Hanseth, siendo que su lengua materna es el noruego.

TIC, Riesgo y Complejidad.

Las tecnologías de información y comunicaciones (TIC) han estado estrechamente relacionadas con el riesgo a lo largo de su historia. Por un lado, las TIC son esencialmente una tecnología de control. Es una tecnología que nos ayuda a predecir mejor los complejos procesos de control de la naturaleza (el desarrollo de nuevas drogas, control de plantas de producción de energía nuclear, pronóstico del clima, etc...), la sociedad (sistemas de control de producción, herramientas para el control de proyectos, etc..), y otras tecnologías (mísiles balísticos intercontinentales, plantas químicas, etc...). Esto también incluye varias herramientas para la predicción, cálculo y administración del riesgo. Pero también hemos experimentado que las soluciones TIC tienen sus propios riesgos – riesgos relacionados con proyectos de TIC, así como fallas de los sistemas. Y toda una serie de técnicas e instrumentos relacionados con la conformación de soluciones TIC han sido desarrollados para ayudar a los directores de proyectos de control de riesgos, así como para hacerlas confiables mediante la minimización de los riesgos por fallas de los sistemas.

A pesar de toda la investigación acerca de los riesgos de las TIC y la creciente sofisticación de las herramientas y técnicas desarrolladas, aún prevalecen los riesgos de las TIC. De hecho, hay indicios de que se están incrementando más que disminuyendo. Esta aparente paradoja es lo que motivó el libro.

Neurona activaEl centro de la argumentación del libro “Teoría de la Sociedad del Riesgo” de Ulrich Beck (1986) es el supuesto que nuestra sociedad se está volviendo mas compleja a través del desarrollo y la utilización de mayor cantidad de formas de organización y tecnologías que son esenciales en los procesos de globalización en marcha. Este complejo mundo, todavía de acuerdo a Beck (y Giddens), se está volviendo crecientemente más impredecible y en consecuencia, más crecientemente inmanejable y descontrolado. Las TIC se están volviendo incrementalmente parte central de virtualmente todas las tecnologías. Al mismo tiempo, las TIC en general, e Internet y las aplicaciones construidas sobre ésta, en particular, son fundamentales en la globalización en marcha. En consecuencia, las TIC deben ser centrales en la creación de la Sociedad del Riesgo. Así que, adoptando la visión de Beck, podemos decir que las TIC han (posiblemente) cambiado desde la tecnología del control hacia la del riesgo, es decir, una tecnología que genera mayores riesgos que aquellos que nos ayuda a controlar y administrar.

La British Computer Society (BCS) y la Real Academia de Ingeniería (RAE), publicó en abril de 2004 un informe sobre el estado de la investigación y la práctica de las técnicas en Ingeniería de Software (IS) y el Diseño de Sistemas de Información (DSI) en el Reino Unido, que se llamaba "El reto de los proyectos complejos de TI (BSC / RAE, 2004). El informe BCS / RAE considera el crecimiento de la complejidad como consecuencia del crecimiento de la potencia del cálculo y del desarrollo de las tecnologías de la comunicación. El crecimiento en la potencia del cálculo ha permitido a nuestros ordenadores ejecutar programas más complejos, y en consecuencia, hemos desarrollado software más complejo. El desarrollo de las tecnologías de la comunicación nos ha permitido integrar las complejas piezas de software en todos los equipos.

El informe también concluyó que la alta tasa de fracaso fue el resultado del hecho de que la complejidad de las soluciones de TIC ha crecido rápidamente y que las actuales metodologías de IS-DSI no lo abordan adecuadamente. El informe concluye, asimismo, que las metodologías existentes se desarrollaron en un momento en que la complejidad se encontraba en un nivel mucho más bajo, que estas metodologías no se han ampliado para contemplar la complejidad (véase, por ejemplo, Fitzgerald, 2000), y, por último, que no se han desarrollado nuevas metodologías para abordar la complejidad creciente. De ahí la conclusión de que la complejidad de la TI es el tema sobre el que se necesita investigación básica. Es necesario entonces, según el informe, en primer lugar, entender esta complejidad y luego desarrollar nuevas metodologías de gestión de riesgos que nos permitirán controlar dicha complejidad.

También consideramos estos dos factores como causas de la creciente complejidad. Sin embargo, nuestra opinión sobre las fuentes de la incremental complejidad de las TIC es ligeramente diferente. Vemos a la integración como la fuente principal. Y no vemos a las TIC como a una tecnología purificada. La complejidad de las TIC ha aumentado el número de componentes y su integración ha aumentado. Pero igual de importante, la complejidad también ha aumentado debido a una mayor integración entre los componentes de las TIC y las organizaciones y las prácticas de uso de la tecnología. Vamos a explicar en detalle este argumento un poco más.

Al igual que se ha incrementado la potencia de cálculo, ha ido creciendo el número de aplicaciones en uso en cualquier organización. Estas aplicaciones, o sistemas de información (SI), apoyan un número creciente de áreas de aplicación. Esto implica que el número de tipos de sistemas de información y de áreas de uso ha crecido también. Paralelamente las plataformas o infraestructuras en que se están ejecutando estas aplicaciones se han vuelto más sofisticadas; el número de componentes, así como los tipos de componentes, han crecido. Todos estos componentes están relacionados de varias maneras. Las aplicaciones se han integrado unas con otras incrementalmente. Lo mismo ha ocurrido con las plataformas. Y la evolución de las tecnologías de la comunicación ha permitido el desarrollo de diversos tipos de nuevas aplicaciones, pero primero que todo han dado lugar a una integración de plataformas y aplicaciones a través de las fronteras organizativas y geográficas. Esto, nuevamente, ha dado lugar a la integración (es decir, un número creciente de conexiones) entre las organizaciones y sus rutinas, y entre sus sistemas de información. Con el tiempo el uso de cada uno de los sistemas de información crece (en parte en relación directa al número de usuarios, en parte indirectamente a través de la integración con otros sistemas de información). Esto significa que el número de enlaces, y los tipos de vínculos, entre los sistemas técnicos y de los interlocutores sociales/organizacionales también crecen. Y cuando los sistemas de información se han integrado a través de las fronteras de la organización, se establecen vínculos entre las rutinas y las prácticas en una organización y los sistemas de información y las plataformas del otro. Y, por último, de acuerdo con la hipótesis aparentemente compartida por todos, todo - en particular las organizaciones de TI y de negocios - está cambiando a una velocidad cada vez más alta. En resumen, esto significa que debe ser bastante obvio que la complejidad del desarrollo y el uso ha aumentado considerablemente.


Referencias mencionadas en los parágrafos seleccionados:

BCS/RAE (2004), ‘The challenges of complex IT projects’, British Computer Society and Royal Academy on Engineering Report, www.bcs.org/ NR/rdonlyres/3B36137E-C5FE-487B-A18B-4D/281D88EF7/0/complexity.pdf, accessed 31 August 2005.
Beck, U. (1986), Risk Society: Towards Another Modernity, London: Routledge.
Beck, U., A. Giddens and S. Lash (1994), Reflexive Modernization, Cambridge: Polity Press.

Basado en ICT, Risk and Complexity. HASETH, Ole y CIBORRA, Claudio (editores) Cornwall, Gran Bretaña. 2007. Edward Elgar Publishing.

martes, 17 de marzo de 2009

Directorio de establecimientos. (II)

El directorio de establecimientos proporciona el universo de establecimientos del sector educativo. Esta entrada es la segunda. La primera se encuentra aquí.

Para 1995 me había vuelto en experto en calidad de los datos, pero denoté que en el término de un año escolar podían cambiar mucho los datos de un directorio de establecimientos (de hecho, unos años más tarde pude cuantificar que podían cambiar hasta el 50% de los registros al semestre!), desactualizándolo si no se introducían cambios en los flujos de la información. Se inició mi travesía por el diseño de sistemas de información.

Me fueron necesarios cerca de seis meses en documentar los errores de calidad en los datos históricos del estudio censal del DANE, de nuevo financiado por el Departamento Nacional de Planeación, para poder argumentar y presionar cambios en dicho estudio. Entre ellos se presionó para un proceso de asignación de código DANE más ágil, y cambios en el proceso de reporte de novedades del directorio de establecimientos. Todo ello se realizó de manera paralela a la discusión de la actualización de los formularios a las nuevas realidades y responsabilidades de la descentralización. Abandoné mis compromisos con el tema desde fines del año 1996.

Cuando en el año 1998 fui el responsable de la recolección estadística en el Distrito Capital, tuve la oportunidad de implementar un proceso de reporte de novedades del directorio y de diseñar todo el proceso de verificación de la calidad de la información en el momento de recibo de los formularios. El DANE, que no contaba con una decidida colaboración por parte de las secretarías de educación, realizaba la depuración en sus oficinas luego de seis meses de haber recolectado los datos.

El proceso del Directorio en el Distrito presentó graves problemas por cuanto nadie era doliente del mismo. La oficina de sistemas no entendía qué de importante podía tener un directorio de establecimientos y no apoyaba el proceso, y las diferentes dependencias preferían no verse constreñidas por un procedimiento de actualización de sus directorios, sobre todo por la falta de alfabetización informática de los funcionarios. De nuevo el factor humano era obstáculo para la implementación de un sistema de información.

A inicios del año 2001 tenía bajo control el directorio de establecimientos del Distrito Capital. Las directivas de la secretaría de educación entendían que la única manera de disminuir su nivel de error era publicándolo para que los propios establecimientos solicitaran la corrección. Se publicó el de establecimientos oficiales pero para aquella época esos ya no eran problema. Los establecimientos privados eran los que no estaban bajo control. Las directivas solicitaron que como requisito previo para su publicación se consultara a las asociaciones de colegios privados con el objeto de que no se sintieran vulnerados. Problema aparentemente más político que real. El caso es que dichas asociaciones solicitaron la revisión de los datos por parte de ellos antes de su publicación. Los datos no les concordaban, en gran parte porque sus propios directorios de afiliados carecían de actualización. Pasaron los meses y no había decisión al respecto. Nunca se publicó. Ni chance de que se hiciera de manera electrónica en la página WEB de la Secretaría de Educación.

foto establecimiento educativo de Soledad, AtlánticoLa frustración no era esa, sino la incapacidad de los propios funcionarios del sector de comprender que un directorio de establecimientos es la piedra angular de la construcción de cualquier sistema de información integrado.

Durante los años que estuve en la Secretaría de Educación el único que me apoyó la construcción y mantenimiento del adoptado directorio de establecimientos, el cual era por supuesto fundamental para mis labores estadísticas, fue el encargado de la nómina docente. Le era un dolor de cabeza asignar docentes a establecimientos educativos inexistentes, o que no estaban ubicados en dónde le indicaba la bases de datos o que no contaban con los niveles de educación para los cuales estaba capacitado el docente.

Para el año 2001, con motivo de mi trabajo como consultor, tuve oportunidad de trabajar en una propuesta de mejoramiento de la calidad de la información y del sistema de información del sector educativo. En aquella época había un contratista del Ministerio de Educación que había adoptado el directorio y luchaba incesantemente para tener un buen directorio de establecimientos. Todavía nadie apoyaba el tema.

En el año 2002 se posesionó una nueva administración. Se hizo una revolución en los sistemas de información, pero no fue sino hasta el año 2004 que el responsable entendió que era necesario tener un directorio de establecimientos como elemento integrador de los sistemas de información. Pero un tema sin doliente ocasiona que la desactualización sea constante, causa básica de la imposibilidad de crear indicadores (información). Un resultado es que hacia el 2006 todavía no había credibilidad en la información del Ministerio de Educación.

Continúa ...

Directorio de establecimientos. (I)

Como ejemplo de complejidad y su origen en los aspectos sociales de los sistemas de información, narro a continuación mi punto de vista sobre la historia que he vivido en el sector educativo con respecto al más básico de los temas: el Directorio de Establecimientos Educativos de la educación básica:

Desde que inicié mi desempeño laboral en el sector educativo, hacia el año de 1993, se ha estado luchando para la construcción de un Directorio de Establecimientos de la Educación básica y media que contenga los datos mínimos de identificación, ubicación y caracterización de éstos.

Alfredo Sarmiento Gómez publicó un grueso volúmen cuando trabajó como asesor del Ministerio de Educación en los años ochenta. Pero pasado poco tiempo los datos se desactualizaron y el advenimiento de los computadores personales con la nueva década permitió pensar en armar uno electrónico.

El Ministerio de Educación no apoyó el nuevo proyecto por cuanto consideraban que los varios que poseían eran adecuados a sus propósitos. El trabajo lo acometió el Departamento Nacional de Planeación por medio de la Misión de Apoyo a la Descentralización y Focalización de los Servicios Sociales, hacia el año 1994. Tuve la oportunidad de encargarme del proyecto como actividad paralela a mis demás funciones.

Por supuesto, la primera actividad era comparar los diversos directorios existentes. Cada dependencia del Ministerio de Educación tenía el suyo y aducían tener el más completo. La primera dificultad para compararlos era que no contaban con una identificación única que permitiera cruzarlos. Algunos contaban parcialmente con un campo que correspondía al código que el Departamento Nacional de Estadística (DANE) le asignaba dentro del "estudio censal anual del sector educativo de la educación básica y media formal". Era lógico tomar dicho dato como identificador inequívoco. Por Ley todo establecimiento debía reportar las estadísticas de su establecimiento.

Del cruce se denotó que establecimientos con el mismo nombre y dirección contaban con identificadores diferentes y que establecimientos con diferente nombre compartían la misma identificación. Se trataba correspondientemente de mala digitación de la identificación y de duplicación de datos.

Tras una lucha de varios meses para que el DANE revelara la fórmula para determinar el dígito final del código, que servía para comprobar la correcta digitación, se determinaron las identificaciones incorrectas.

Paralelamente se trabajó en explicar por qué varios establecimientos tenían el mismo identificador. Se trataba de cambios de nombre que algunas dependencias actualizaban por haber tenido comunicación con dicho establecimiento por causa de algún trámite administrativo, y que las demás dependencias no podían haber sabido, debido a la inexistencia de procedimientos para dicha actualización.

foto de establecimiento educativo de BogotáLas direcciones también cambiaban. Podía ser por traslado de infraestructura física, por cambio de la nomenclatura en la ciudad o por ser establecimientos educativos de cierto tamaño que contaban con varias sedes o acceso por varias puertas. Y por supuesto, por problemas de digitación y estandarización.

Escribí una rutina computacional que estandarizara los nombres de los establecimientos educativos basado en las recomendaciones del DANE y de las direcciones basados en normas establecidas por la Secretaría de Hacienda del Distrito Capital para propósitos catastrales. A lo largo de varios meses se fue alimentando la base de datos de conversión a medida identificaba nuevas variantes de direcciones, sobre todo rurales, y nuevos tipos de errores de digitación. Se procedió a estandarizar también la manera como se presentaban los teléfonos. Años después, cuando me encargué del mismo problema en la Secretaría de Educación del Distrito Capital, tuve la oportunidad de solicitar que pusieran como dirección la que correspondía a la de entrega de correspondencia, para evitar que cada vez colocaran una puerta de acceso diferente.

También era claro que muchos establecimientos no tenían asignado código por parte del DANE. Se trataba de casos que estaban en proceso de aprobación por parte de las secretarías departamentales (para aquella época ya había empezado el proceso de descentralización de la educación en Colombia), omisos estadísticos y algunos que habiéndose reportado aún no tenían asignado uno por causa de un proceso que tomaba poco más de un año. Determiné una manera de asignar un código de identificación provisional con la misma estructura del vigente. Eso creó malestar en el DANE, pero no dieron alternativa diferente para resolver la problemática.

Con base en el ejercicio se hizo evidente que nadie tenía un directorio actualizado ni completo, que no era dable pensar por el momento en un proceso de georeferenciación ni en estudios que cruzaran información proveniente de diversas fuentes de información por carecerse de un identificador único que permitiera relacionar de manera confiable las diferentes variables.

El proceso generó cierta rivalidad entre el Departamento Nacional de Planeación y el Ministerio de Educación Nacional. Injustificable, pero muy humano.

Por el momento se había lidiado con cuatro variables: identificación, nombre, dirección y teléfono. Para incorporar si se trataba de un establecimiento administrado por el estado (oficial), si estaba ubicado en zona urbana o rural y los niveles educativos que ofrecía, se cruzó la información con la provista por el estudio censal del DANE ya mencionado (en realidad semi censal con sesgo desconocido).

Con el tiempo, en el Distrito Capital fue necesario añadir si era oficial financiado por el Distrito u oficial financiado por otra entidad de carácter estatal ya que entidades como la Contraloría o el Banco de la República lo hacían. Respecto a los niveles educativos se requirió saber si ofrecían todos los grados o parcial con el objeto de apoyar el proceso de reordenamiento institucional. Este era un concepto nuevo. Con la ampliación de la cobertura ya no se esperaba que hubiera instituciones que ofrecieran sólo los grados de primaria o sólo los de secundaria, sino todos los grados.

También se añadió el nombre del rector.

El mismo proceso de reordenamiento llevó a procesos de fusión de establecimientos pequeños y que sólo ofrecían primaria con otros de mayor tamaño y que ofrecían todos los niveles educativos. Esto último obligó a establecer un listado de las sedes de cada establecimiento con su dirección, teléfono y características. Cada vez era más complejo.

Pero regresando a la época del Departamento Nacional de Planeación, hacia el final del año 1995 también era necesario caracterizar de algún modo el tamaño del establecimiento educativo. Procedí a realizar histogramas de los tamaños de los establecimientos y denotar que había unas tipologías que relacionaban el tamaño con los niveles ofrecidos. A los encargados de calcular el costo per cápita de educar a un niño o joven les pareció interesante mi ejercicio de clasificación y lo adoptaron. De ahí surgieron las "tipologías" que luego han hecho carrera en relación a la distribución de los recursos del Sistema General de Participaciones de las entidades territoriales en los Ingresos Corrientes de la Nación.

Poco a poco se fueron introduciendo más variables en el directorio de establecimientos, lo cual era problemático ya que cada nueva variable hacía crecer geométricamente el número de registros con error a causa del crecimiento exponencial del número de fuentes de error. El problema no era el trabajo adicional de verificación, sino que el directorio era la base para crear reputación de confiabilidad de la información estadística y como ya dije, entre más variables, mayor proporción de errores.

Un tema sencillo y fundamental como saber cuántos establecimientos educativos se tenían y dónde estaban se había vuelto muy complejo en los términos que denota la definición que adopto en la entrada correspondiente.

(Continúa...)

Heurística, carpintería e improvisación

En el tercer capítulo de "Los laberintos de la Información: desafiando la sabiduría de los sistemas", Claudio Ciborra nos muestra una reivindicación de actitudes consideradas poco ortodoxas, pero que son necesarias para llegar a crear una cultura verdaderamente innovativa en una organización.

El título del capítulo "Bricolage" hace referencia a la capacidad de develar nuevos usos y aplicaciones de la tecnología al alcance.

E aquí un resumen de su exposición:

Bricolage

Las metodologías que dictan cómo realizar un plan estratégico de sistemas de información nos dicen:

  • Identifique los factores clave de éxito y competencias distintivas.

  • Por medio de un estudio del entorno identifique sus oportunidades y amenazas, fortalezas y debilidades.

  • Luego defina un conjunto de alternativas de estrategia competitiva.

  • Seleccione una y planéela en detalle.

  • Estas metodologías separan la fase de planeación de la de implementación.

    Son metodologías conscientes y analíticas. Orientadas al control del proceso y de arriba hacia abajo. La metodología debe ser lo más simple posible y estructurada. Analizada con métodos como la cadena de valor, las cinco fuerzas, el diagrama en diamante, la matriz BCG, y relacionadas.

    La estructura para llevar a cabo el proyecto es la fase subsiguiente a la planeación y previa a la implementación.

    Mintzberg en 1990 criticó estas metodologías básicamente en tres puntos:

  • El proceso presume que el entorno es predecible y que los eventos se podrán desarrollar en secuencia: formulación, diseño e implementación. La realidad del día a día nos muestra que en el camino surgen eventos imprevistos que obligan a reformular los planes y el diseño, amenazando la poca flexibilidad de las diferentes metodologías y desajustando el acoplamiento planeado entre la organización y el entorno analizado.

  • El proceso separa la formulación estratégica de la estructura organizacional, bajo el precepto de que es necesario que la organización se adapte a la nueva formulación estratégica. No obstante existe una cultura organizacional explícita e implícita con formas rutinarias de actuar, pensar y comportarse, y puede haber en la realidad direccionamientos desengranados e inclusive contradictorios, todo lo cual influye en el moldeamiento de la formulación estratégica original.

  • Se mira el proceso como intencional y controlado, no obstante la formulación estratégica encuentra en su camino sorpresas, lo cual lleva a cambios radicales en las preferencias e incluso en la identidad de los tomadores de decisiones, a la vez que círculos viciosos paralizantes que pueden bloquear la implementación de la estrategia. De esta manera, debe verse el proceso como de aprendizaje organizacional, con heurísticas, cambio de órdenes y reconstrucción continua de las fortalezas y debilidades, oportunidades y amenazas.

  • Los modelos de competencia, extractados de la rama de la microeconomía denominada “organización industrial”, nos muestran varios:

  • Los ingresos de las compañías provienen de la estructura del mercado en que compiten. La ventaja competitiva proviene de la habilidad para crear barreras de entrada, diferenciación del producto, relaciones con los proveedores, etc...

  • En la competencia monopolística las firmas se consideran heterogéneas en cuyo caso se compite en función a su know-how, sus recurso y sus activos, su reputación, su capacidad de conformación de equipos de trabajo, su cultura organizacional y otros activos invisibles. En definitiva, compiten mediante el desarrollo de fortalezas y habilidades únicas y defendiéndose de la imitación por parte de otras firmas.

  • Una tercera perspectiva es la de las firmas innovadoras en productos, mercados, organización y/o tecnología. La innovación proviene más de una “destrucción creativa” que de un proceso planeado. Es decir, habilidades para aprender, adivinar y tener suerte como factores clave competitivos..

  • La primera perspectiva parte de un análisis del entorno y una controlada planeación de los pasos a seguir para mantener la competitividad. La segunda y tercera perspectiva parten del aprovechamiento de habilidades únicas e intangibles.

    El capítulo expone renombrados casos reales (ASAP de Baxter, SABRE de American Airlines, el VideoText Teletel francés e Internet) en dónde se evidencia la discrepancia entre lo planeado y la realidad implementada en donde las sorpresas que surgen en el camino, la aparición de oportunidades, la prueba y el error, e incluso la negligencia, jugaron un papel estratégico en la conformación de los sistemas, si bien sólo fueron evidentes tras haber finalizado.

    El punto es que la construcción de Sistemas de Información no crea ventajas competitivas, simplemente impide disminuir la usual tasa de retorno sobre la inversión. Tampoco crean barreras de entrada ya que son fácilmente imitados. El punto es que la construcción de sistemas de información únicos que proporcionen ventaja competitiva por un periodo mayor al corto plazo parece estar más asociado a procesos de innovación.

    La innovación para el desarrollo de sistemas de información realmente estratégicos surge cuando se da la habilidad para reconocer en el uso características idiosincrásicas que fueron ignoradas, subestimadas o sencillamente no planeadas.

    Hay dos caminos para la innovación. El primero es apoyarse en la capacidad propia y afincarse en comportamientos de rutina hasta que se extiendan a la nueva tarea: el aprender haciendo. Cuando no se posee el nivel de competencia adecuado para enfrentar la compleja visión de un nuevo proyecto, acceder a información externa y comprometerse a experimentar puede ser causa de errores y divergencias respecto a una ejecución óptima. Esta opción consiste en motivar a la parte operativa de la organización a que combine y aplique los diferentes métodos y/o herramientas que manejan para llegar a nuevas soluciones. El valor de mecaniquear es que mantiene el desarrollo de los sistemas cercanos a las competencias propias de la institución y a su continua adaptación a las prácticas locales.

    La segunda ruta a la innovación es atacar a la competencia en su médula, permitiendo que surjan nuevas competencias en la propia organización que reemplacen a las existentes. Se trata de un proceso de cambio radical que se orienta a cambiar el contexto cognitivo y organizacional en que se sustentan las prácticas, rutinas y habilidades de la organización.

    Desde este segundo punto de vista, se compite más que con estudios de mercado, análisis de sistemas, especificación de requerimientos y acomodación de los intereses. Lo que se realiza es intervenir en las situaciones y diseñar en el camino, de tal modo que los participantes en el proyecto son libres de diseñar nuevas estrategias y de mirar el contexto organizacional de maneras totalmente novedosas. La nueva información estratégica y sus correspondiente sistema de información se basa en esa nueva manera de modelar el mundo, lo que hará que el sistema construido sea único y difícil de imitar.

    Ambos caminos se acercan al área gris de las prácticas en el trabajo, las creencias, los estados de ánimo, los valores, las rutinas y la cultura en la que yace cada organización.

    Por debajo del reino de los métodos, procedimientos y modos sistemáticos de organizarse y ejecutar el trabajo de acuerdo con la racionalidad, la planeación y el control, llegamos al turbio mundo de la informalidad, lo mundano y la práctica laboral diaria. Es el reino del hackeador, la inteligencia práctica, la filigrana de los porcedimientos proscritos, los atajos y la transgresión del orden organizacional establecido incrustados en medio de las rutinas sistematizadas y formalizadas.

    Hackear, mecaniquear e improvisar son apelativos equivalentes si bien de diferente matiz para denominar este tipo de actuación. Hackear tiene asociado una divergencia con las preplaneadas y formalizadas formas de operar que lleva al encuentro sorpresivo de alternativas valiosas y no esperadas de actuación y que también están al filo entre el comportamiento altamente competente y la incompetencia. Llamar a alguien improvisador o mecaniquero puede ser insultante y llamarlo hacker es asociarlo con comportamientos criminales. Dan cuenta de que dichos comportamientos se consideran marginales. Pero estar al margen de la organización proporciona a los improvisadores un elemento de libertad y de juego acerca de las alternativas que tiene para hacer uso de los recursos que tienen a su disposición. Le da al individuo un cariz de ingenuidad, experiencia y habilidad por encima del sistema organizacional. Parecen tener un modus operandi típico: equipos pequeños y pequeñas intervenciones que conducen sobre la marcha a consecuencias trancendentales si son realizadas hábilmente atendiendo al contexto local. En sistemas el hacker diseña e implementa un programa que realiza una función útil haciendo uso de la tecnología de una manera original, no ortodoxa y usualmente juguetona. El programa que realiza encaja dentro de un sistema más grande. Lo realiza usando la tecnología para algo para lo que supuestamente no fue desarrollada. De manera ingeniosa, mediante iteraciones, reuso o reinterpretación del ambiente de programación implementa de manera novedosa una nueva solución. El sistema operativo Linux fue desarrollado de este modo. El hacker suele pertenecer a una comunidad de hackers en el que el papel de analista, diseñador o desarrollador se intercambian sin obedecer a rígidas estructuras, reemplazándolas por un enfoque distribuido y evolutivo.

    Bricolage significa mecaniquear (tinkering) haciendo uso de los recursos al alcance. Los recursos se convierten en las herramientas disponibles y delimitan la heurística para resolver un problema. Se trata de mover el mundo de acuerdo a como lo determine la situación presente. Con el bricolage las prácticas y las situaciones develan nuevos usos y aplicaciones de la tecnología al alcance.

    La improvisación enfatiza en lo repentino, extemporáneo e impredecible del comportamiento humano. La improvisación competente hace referencia a la capacidad de intervenir en una situación en la que hay que decidir sobre algo inesperado rápidamente.

    Hackear, mecaniquear e improvisar explotan en toda su potencia las herramientas y la situación presente allí donde los modos de actuar preplaneados se ven derrotados o son menos efectivos por causa de las contingencias. Por definición son actividades altamente idiosincráticas y a menudo no visibles. Por ende son difíciles de imitar en contextos culturales diferentes de los que los vieron nacer.



    Bibliografía:

    CIBORRA, Claudio. The Labyrinths of Information: Challenging the Wisdom of Systems. Oxford University Press, 2002. Great Britain.

    domingo, 15 de marzo de 2009

    Estructuralismo y fenomenología

    Muchos académicos de los estudios socio-técnicos de los sistemas de información fundamentan sus metodologías en el estructuralismo de Anthony Giddens por una parte, y por otra en la fenomenología de Heidegger.

    A continuación ofrezco una breve presentación de cada una:

    Estructuralismo

    Fotografía de Anthony Giddens
    Frente a una perspectiva dualista entre el positivismo y la subjetividad que existía previamente a la teoría del estructuralismo, Giddens propone que la realidad social se construye por cuenta de los subjetivos actores humanos y por las propiedades organizacionales: las estructuras sociales condicionan las interacciones sociales mediante la provisión de reglas contextuales y recursos que permiten que los actores humanos le den sentido a su actuar y al de los otros individuos. Las estructuras son el medio y el resultado de la interacción. La acción humana crea las propiedades estructurales institucionales, y luego dicha organización sirve de medio para configurar la futura acción humana.

    Fenomenología:

    Wikipedia nos dice:

    La fenomenología (del griego: φαινόμενoν: "apariencia", ιογος: "estudio, tratado") es una parte o ciencia de la filosofía que analiza y estudia los fenómenos lanzados a la conciencia, es decir, las esencias de las cosas. Dicho de otro modo, la fenomenología es la ciencia que estudia la relación que hay entre los hechos (fenómenos) y el ámbito en que se hace presente esta realidad (psiquismo, la conciencia).

    La fenomenología también es un método... toma por real todo aquello que es pensado de manera clara y distinta y puesto en perspectiva temporal...

    Si bien se considera a Husserl como el padre de la fenomenología, Claudio Ciborra se basa fundamentalmente en Martin Heidegger, discipulo del primero y en la introducción de su obra "Ser y tiempo" (en alemán Sein und Zeit, 1927) el más importante trabajo del filósofo alemán.

    De nuevo Wikipedia nos explica acerca de Heidegger:

    Fotografía de Martin Heidegger
    Introdujo los textos de Friedrich Nietzsche en la filosofía académica. Es una de la figuras protagónicas de la filosofía contemporanea: influyó en toda la Filosofía del Existencialismo del siglo XX, fue uno de los primeros pensadores en apuntar hacia la Destrucción de la Metafísica (movimiento que sigue siendo repetido), en quebrar las estructuras del pensamiento eregidas por la Metafísica (que domina al hombre occidental), que se dio cuenta que el problema de la filosofía no es la verdad sino el lenguaje con lo que hizo un aporte inmenso al Giro Lingüístico, problema que ha revolucionado la filosofía. Mantuvo vigencia en muchos pensadores europeos —y con el paso del tiempo en los no europeos—, a partir de la publicación de Ser y tiempo (1927). El estilo, innovador, complicado y aún oscuro que utiliza Heidegger con el fin de Abrir-Mundos según el pensador (y que muchos consideran que es terriblemente oscuro y casi místico); influyó en Hans-Georg Gadamer, el estilo singular y difícil que utiliza Jean-Paul Sartre en El ser y la nada, el de Jacques Lacan cuando redacta sus Escritos, el de Jaques Derrida con su crítica a la Presencia, Gianni Vattimo y a una gran parte de pensadores envueltos en el debate sobre la muerte de Dios y el Ser, el nihilismo, la postmodernidad y la época post-capitalista.

    Revisando la introducción a El Ser y Tiempo, Heidegger nos habla de encontrar lo no descubierto, lo enterrado (y que ha estado descubierto), lo desfigurado, lo dado por sentado. Nos dice: "La fenomenología debe permitir ver aquello que inmediata y regularmente NO se muestra, aquello que al contrario de lo que inmediatamente y regularmente se muestra, está OCULTO, pero que al par es algo que pertenece por esencia a lo que inmediata y regularmente se muestra, de tal suerte que constituye su sentido y fundamento." (Mayúsculas puestas por mi)

    Referencias:

    HEIDEGGER, Martin. El Ser y el Tiempo, trad. por José Gaos. México. Fondo de Cultura Económica, 1951. p46.

    ORLIKOWSKI, Wanda J. y ROBEY, Daniel. Information Technology and the Structuring of Organizations. En Information Systems Research 2 : 2. The Institute of Management Sciences. Junio 1991. 143 -169

    http://es.wikipedia.org/wiki/Fenomenolog%C3%ADa
    http://es.wikipedia.org/wiki/Martin_Heidegger

    martes, 10 de marzo de 2009

    Los Sistemas de Información cómo área de estudio.

    Manifestarse como especialista en Sistemas de Información poco le dice a los interlocutores. Los estudiosos de los sistemas de información se mueven dentro de una zona no bien definida.

    Las principales publicaciones sobre el tema son MIS Quaterly, desde 1977 y Information Systems Research desde 1987. Y las principales agremiaciones internacionales son la Conferencia Internacional sobre Sistemas de Información (ICIS, por sus siglas en inglés) que data de 1980 y la Asociación de Sistemas de Información (AIS, por sus siglas en inglés) que data de 1993. Sus asociados son mayoritariamente norteamericanos.

    Clase magistral en SIEn Norteamérica, la mayoría de los académicos de los sistemas de información están en las facultades de las escuelas de negocios, en Europa los académicos pueden ser encontrados en otras muchas facultades. El estudio en que se basa esta entrada muestra una mayor dispersión en Europa. Se les pidió a los académicos de los sistemas de información mencionar las facultades en las que se desempeñan como profesores – investigadores. El 29% de los académicos consultados respondieron que el nombre de su facultad estaba relacionado con el término sistema de información, el 25% se encontraba en una facultad cuyo nombre combinaba el concepto de información con otra disciplina (por ejemplo gerencia informática o negocios informáticos), el 15% estaba en facultades de administración o ciencias sociales (economía, teoría organizacional, marketing, administración pública, investigación operacional, contabilidad), el 21% en facultades de ingeniería (de sistemas, informática, eléctrica o comunicaciones) y el 9% en otro tipo de facultades (políticas en tecnología, ciencias humanas y tecnología avanzada, estadística o leyes).

    Las temáticas de investigación en Europa están más orientadas hacia administración y temas organizacionales que hacia temas puramente tecnológicos. Y éstos temas tienen más énfasis hacia las bases teóricas de los sistemas de información. Y la enseñanza se orienta sobre todo a lo relacionado con la administración de sistemas de información y las tecnologías de información y comunicaciones. Se enseña poco respecto a impacto, ética y políticas de los sistemas de información.

    Basado en AVGEROU, Chrisanthi; SIEMER-MATRAVERS, Julika y BJORN-ANDERSEN, Niels. The academic field of information systems in Europe [en línea]. Londres: LSE Research Online.
    Disponible en: http://eprints.lse.ac.uk/2578
    Disponible en LSE Research Online: Julio de 2007.

    lunes, 9 de marzo de 2009

    Aspectos sociales de los sistemas de información


    La definición de sistema de información (SI) comprende un elemento sustancial que suele darse por sentado y que sin embargo se pasa por alto con demasiada frecuencia: las organizaciones humanas que se interrelacionan con los sistemas técnicos.

    Desde hace muchos años académicos e investigadores de la teoría social y la filosofía se han dedicado a develar el impacto que los sistemas técnicos producen en los sistemas humanos y viceversa. Se pueden mencionar como líneas de investigación a: los aspectos sociales y organizacionales de los SI; la teoría de la crítica social aplicada a la investigación en SI; las dimensiones filosóficas, culturales y sociales de las tecnologías de la información y las comunicaciones (TIC); los aspectos políticos y éticos de las TIC en las organizaciones y la sociedad desde puntos de vista epistemológicos; los temas teóricos y metodológicos de la investigación en SI; la relación entre cambio organizacional y tecnología; la búsqueda de perspectivas alternativas para el desarrollo de SI; la administración del cambio, el conocimiento y la innovación; la transformación organizacional en contextos dinámicos; la complejidad, las redes y la competencia en el ciberespacio; estructuras organizacionales, normas culturales y prácticas laborales; o los factores que afectan el éxito o el fracaso de los SI, entre otros.

    [1] Basado en el prefacio de Social Theory and Philosophy for Information Systems. MINGERS, Jhon y WILLCOCKS, Leslie (Editores). Cornway, Gran Bretaña. 2005. Wiley.

    jueves, 5 de marzo de 2009

    Sistema de Información

    El concepto de sistemas de información se utiliza ampliamente sin pensar mucho en lo que realmente significa. Para hallar un significado que pueda satisfacernos, busquemos el origen etimológico de cada término:

    Sistema: viene del latín systēma, a su vez del griego σύστημα systēma: sýn – con, unión; stē – estar situado; -ma – resultado de acción[1]. Otra acepción es que en griego systēma significa toda la organización. Proviene del verbo sunistēmi (establecer) lo que significa poner en relación, instituir[2]. Es decir, es el resultado de estar situado en una unión o en menos palabras, pertenecer a un conjunto. No se especifica qué tipo de objeto o ente pertenece a dicho conjunto. La segunda acepción hace referencia a establecer o instituir relaciones. Tampoco hace referencia al tipo de objeto o ente sobre el que se instituye la relación. Ambas acepciones nos invocan de todos modos al sentido dado actualmente: conjunto de objetos y/o entidades, reales o abstractas, en que cada uno de los elementos interactúa o se asocia con al menos un elemento del total.[3]

    Información: viene del latín informationem: concepto, idea[4], sustantivo de la acción informare: forma o dar forma[5]. En el español actual significa, en una primera acepción que nos interesa, comunicación o adquisición de conocimientos que permiten ampliar o precisar los que se poseen sobre una materia determinada[6]. Pero existe otra acepción antigua que es educación o instrucción que estaría relacionada con la transmisión de conocimiento.

    Como resultado, de manera amplia, debemos entender un sistema de información como el conjunto de conceptos, ideas y/o conocimientos pertenecientes a una materia o tema determinado que aportan a nuestro entendimiento.

    El contemporáneo uso cotidiano ha circunscrito el concepto en relación con sistemas técnicos de información, principalmente tecnologías de información y comunicaciones[7], que proporcionan conocimiento a una organización que se los solicita. Es fundamental conceder que es necesario añadir el concepto de la organización humana ya que un sistema técnico por si sólo no tiene sentido.

    Los niños de manera ingenua preguntan porqué se habla de medio ambiente y no de un ambiente completo. No les falta la razón. Si bien usualmente la conservación del medio ambiente hace más referencia al cuidado de la flora, fauna, aguas y aire en el que vivimos, implicitamente estamos incluyendo a los seres humanos. Nos ocurre lo mismo con los sistemas de información.

    Por esta razón, debemos entender sistema de información como un conjunto de sistemas técnicos, básicamente tecnologías de información y comunicaciones, que se interrelacionan con un sistema social con el propósito que de la reciprocidad se produzcan sinergias que apoyen el objeto de la organización y al entendimiento de los conceptos, ideas y/o conocimientos relativos a éste.

    [1] Traducción de la etimología dada por un diccionario médico griego – español: http://www.dicciomed.es/
    [2] Traducción de la etimología dada por Wikipedia en idioma francés.
    [3] Wikipedia en español.
    [4] Diccionario de latín: http://www.math.ubc.ca/~cass/frivs/latin/latin-dict-full.html y http://www.etymonline.com
    [5] Mencionada como origen etimológico por Wikipedia en idioma alemán y encontrada también en http://www.etymonline.com
    [6] Diccionario de la Real Academia Española.
    [7] Conjunto de herramientas, equipos, programas informáticos, aplicaciones, redes y medios que permiten la compilación, procesamiento, almacenamiento y transmisión de información como: voz, datos, texto, video e imágenes, según definición dada por el Ministerio de Comunicaciones de Colombia.

    martes, 3 de marzo de 2009

    El fracaso en los proyectos

    El día de hoy revisé la siguiente lista de chequeo para evitar causas usuales de fracaso en los proyectos. Está basada en un listado según la Office of Government Commerce (OGC), oficina adscrita al Ministerio del Tesoro del Reino Unido, la cual trabaja con las oficinas del gobierno central y otras entidades del sector público para asegurar la obtención de los beneficios buscados mediante proyectos entregados a tiempo, bajo el presupuesto y la calidad especificada y en general para proporcionar guías de las mejores prácticas para la administración pública.

    Me parece interesante porque deja explícito el tema de los aspectos sociales de los proyectos en los numerales 2, 3, 4 , 7 y 8.


    Lista de chequeo para evitar causas usuales de fracaso en los proyectos:

    Si algunas de las respuestas a las siguientes preguntas son insatisfactorias, no continúe con el proyecto en tanto no sea ajustado en la forma adecuada para que la satisfacción sea lograda.

    1. Falta de claridad en la relación entre el proyecto y las prioridades estratégicas de la organización, incluidos los indicadores de éxito del proyecto.

    • a. ¿Sabemos cómo se compara y alinea la prioridad de este proyecto con otras actividades?
    • b. ¿Se han definido los factores clave de éxito (FCE) del proyecto?
    • c. Dichos FCE, ¿se han acordado entre las partes?
    • d. ¿Tenemos claro el plan del proyecto en toda su extensión y los cambios que implica e indica el camino para obtener los beneficios buscados?
    • e. ¿Esta cimentado en tiempos realistas y tiene en cuenta los plazos establecidos y muestra las dependencias de las rutas críticas tal que las demoras puedan ser manejadas?
    • f. ¿Están siendo aplicadas las lecciones dadas por proyectos anteriores?
    • g. ¿Ha sido realizado un análisis de los efectos que tendría un desliz en
      tiempo, costos, alcance o calidad? En el evento de un problema o conflicto, uno de ellos deberá ser sacrificado.

    2. Falta de gerencia experimentada y liderazgo y apropiación institucional.

    • a. El equipo a cargo, ¿tiene una visión clara de la interdependencia con otros proyectos, beneficios buscados y los criterios con que se juzgará el éxito del proyecto?
    • b. Si el proyecto atraviesa las fronteras organizacionales, ¿hay acuerdos institucionales claros para asegurar una alineación sostenible de los objetivos organizacionales de todas las entidades involucradas?
    • c. ¿Están revisadas todas las implicaciones de todo lo anunciado y comprometido?
    • d. ¿Están las decisiones tomadas tempranamente, de manera decidida y comprometidas en orden a obtener una entrega exitosa?
    • e. ¿Tiene el proyecto las autorizaciones necesarias para proceder y las delegaciones de decisión claras?
    • f. ¿Tiene el director responsable del proyecto la habilidad, responsabilidad y autoridad suficientes para procurar los cambios y beneficios buscados?
    • g. ¿Tiene el director responsable del proyecto un apropiado record de proyectos entregados?

    3. Falta de compromisos efectivos con los interesados.

    • a. ¿Hemos identificado todas las partes interesadas?
    • b. En caso positivo, ¿hemos identificado la racionalidad de dichos intereses?
    • c. ¿Nos hemos asegurado de unos términos de referencia acordes con los requerimientos de las partes interesadas?
    • d. El caso de negocio ha tenido en cuenta la visión de todas las partes interesadas, incluidos los usuarios?
    • e. ¿Hemos previsto cómo incentivar a las partes interesadas para que se monten al bús o en cuanto a manejar su previsible resistencia al cambio?
    • f. ¿Se ha tenido suficientemente en cuenta la cultura organizacional subyacente?
    • g. Adicionalmente, ¿hay mecanismos claros de rendición de cuentas y la forma de dirimir conflictos?

    4. Falta de habilidades y de una metodología probada de administración de proyectos y administración del riesgo.

    • a. ¿Se cuenta con un equipo suficientemente experimentado con roles y responsabilidades claras?
    • b. Los mayores riesgos identificados, ¿han sido conversados y sopesados por el responsable de la entidad y el director responsable del proyecto y su equipo de coordinadores?
    • c. ¿Se cuenta con el suficiente recurso financiero, humano, tecnológico y demás previsto?
    • f. La estimación, monitoreo y control ¿tienen metodologías adecuadas?
    • g. ¿Tenemos maneras efectivas de medir los resultados del proyecto?
    • h. Los acuerdos, ¿son suficientemente robustos como para que las malas noticias lleguen a los directivos sin ser filtradas en el camino?
    • i. Si se hace uso de consultores externos, ¿tienen el suficiente compromiso y hay mecanismos para asegurarse de que cumplan?
    • j. ¿Hemos hecho supuestos acordes con las prácticas vigentes?

    5. Poca atención a los aplazamientos en el desarrollo y a la implementación en pasos manejables.

    • a. ¿Ha sido probada la metodología propuesta en cosas como que no produzca cambios radicales en la tecnología de información requerida?
    • b. ¿Hemos hecho lo mejor posible para planear los tiempos empleando una estimación de pequeñas actividades de tal modo que no haya sorpresas durante el desarrollo del proyecto?
    • c. ¿Hemos planeado entregas parciales cada cierto tiempo de tal modo que ayuden a controlar el tiempo total de desarrollo del proyecto?
    • d. ¿Hemos planeado puntos de chequeo para determinar en el camino si las circunstancias del entorno hacen inviable lograr los objetivos o beneficios buscados en la medida que se esperaba?
    • e. ¿hay un plan de continuidad del proyecto en el evento de que haya demoras por alguna circunstancia?

    6. La evaluación de las propuestas se basan más en el precio que en los beneficios obtenidos.

    • a. ¿El proyecto se evaluó teniendo en cuenta los costos de desarrollo, implementación y mantenimiento?
    • b. La metodología de evaluación, ¿tiene un adecuado balance entre la búsqueda de la economía y la búsqueda de calidad y mitigación del riesgo?
    • c. La metodología de evaluación, ¿tiene en cuenta las necesidades de la entidad?

    7. Falta de contacto y comprensión del entorno por parte de las directivas de la institución.

    • a. ¿Hemos verificado que personas del sector estaría de acuerdo y aceptan la metodología propuesta?
    • b. ¿Hemos verificado con los proveedores si nuestros supuestos son válidos frente a lo que ellos ofrecen?
    • c. ¿Hemos verificado si el proyecto genera el nivel de interés adecuado?
    • d. Las directivas, ¿están suficientemente comprometidas para asumir los riesgos asociados?
    • e. Entendemos la dinámica del negocio de tal modo que las presiones externas no comprometan los requerimientos del proyecto?

    8. Falta de una adecuada integración del equipo que hace parte del proyecto.

    • a. ¿Han sido planeadas las medidas necesarias para obtener una integración del equipo?
    • b. ¿Se ha consultado con los miembros del equipo los productos y entregables del proyecto?
    • c. ¿Se han socializado los riesgos?
    • d. ¿Se han establecido mecanismos que incentiven la cooperación en la obtención de eficiencia?

    lunes, 2 de marzo de 2009

    El impacto de la mala calidad de los datos

    En la generación de valor para la organización.

    La baja calidad en los datos impacta la habilidad para la generación de información.
    La mala calidad de los datos conlleva unos procesos de construcción de Data Warehouses más largos que si no existiera dicha mala calidad.
    Reduce la capacidad de decidir alternativas y por ende empobrece las decisiones.
    Cuando la desconfianza en la calidad de los datos hace más largos los tiempos para la toma de decisiones impacta las ventanas de oportunidad.
    Si los datos no son buenos, los mandos medios y altos pueden ver comprometido su tiempo en resolución de problemas que bien se puede utilizar en temas más estratégicos y generadores de valor.
    La mala calidad de los datos reduce los niveles de confianza y las posibilidades de trabajo colaborativo con entidades proveedoras, clientes o asociadas.

    En el recurso humano.

    Baja la moral de los empleados. Tratar con los errores es difícil y se siente como un trabajo sin sentido.
    Los empleados con alta cualificación resienten tener que utilizar su tiempo en lidiar con datos de mala calidad en vez de dedicarse al análisis de la información y a la generación de conocimiento.

    En la operación.

    La mala calidad de los datos impacta de manera directa los procesos operativos haciéndolos más difíciles, así como los procesos de atención al cliente.

    En el diseño organizacional.

    La mala calidad de los datos reduce los niveles de confianza y las posibilidades de trabajo colaborativo entre dependencias.
    La mala calidad de los datos conlleva unos procesos de implementación de Reingeniería más largos que si no existiera dicha mala calidad.

    [1] Basado en REDMAN, Thomas C. Data Quality: The Field Guide. Digital Press. Woburn, MA. Digital Press. 2001. p. 45

    La estrategia de fortalecimiento de la calidad

    La estrategia de fortalecimiento de la calidad de los datos y la información es un proceso de mejoramiento continuo. El ciclo lo compone:

    Planear

    El plan de implantación está compuesto por un conjunto de acciones que contribuyen al fortalecimiento de la calidad en las categorías de información que se identifique vale la pena actuar, en las que se pueda implementar y que se prevea que generen impacto. Estas acciones están programadas en el corto, mediano y largo plazo, según sea viable ejecutarlas.

    Ejecutar

    Ejecutar las acciones de fortalecimiento de la calidad en busca de alcanzar el mayor impacto posible. Las acciones seleccionadas deben alinearse con los objetivos e integrarse con el ejercicio normal de la entidad u organización.

    Medir

    El objetivo de la medición es evaluar el impacto de las acciones implantadas en la calidad de los flujos de información mediante unos indicadores que reflejen un estado de la calidad de la información en un momento dado.

    Mejorar

    De acuerdo con los resultados del análisis y estableciendo las prioridades, se establecen unas acciones de mejoramiento. Es necesario que se incorporen soluciones, tanto tecnológicas como organizacionales, que se institucionalicen, con el fin de que sea sostenible en el tiempo.

    Ya que los requerimientos de calidad evolucionan a través del tiempo, es probable que el mejoramiento sea cada vez más exigente y se deban incluir nuevos conceptos que constituyen el nuevo valor agregado de cada uno de los flujos.

    [1] Basado en REDMAN, Thomas C. Data Quality: The Field Guide. Digital Press. Woburn, MA. Digital Press. 2001.

    Responsables de la calidad

    Haciendo referencia a la calidad de la información, mi experiencia en organizaciones públicas y privadas me ha dado ha entender que los departamentos de sistemas son los llamados a asegurar la consistencia, seguridad, oportunidad y disponibilidad de los datos y la información por cuanto están bajo su control las tecnologías de información y comunicaciones. Las oficinas de planeación son las encargadas de verificar el beneficio, veracidad, completitud, pertinencia, interpretabilidad y actualidad de los mismos por cuanto son quienes coordinan la definición de la información que se requiere y son usuarios predilectos de la misma. Y los encargados de gerenciar las fuentes son los responsables de asegurar la veracidad y credibilidad mediante la organización de los flujos de la información y la realización de auditorías.

    Tabla de cruce entre responsables y tipos de calidad

    Calidad intrínseca

    Calidad asociada al intercambio

    Calidad asociada al uso

    Oficinas de sistemas

    Consistencia

    Seguridad, oportunidad

    Disponibilidad

    Oficinas de planeación

    Interpretabilidad, completitud

    Beneficio, pertinencia, actualidad

    Oficinas que gerencian las fuentes

    Veracidad

    Credibilidad

    Las características de calidad mostradas corresponden a las expuestas si bien no se trata de una lista exhaustiva.

    La estrategia de fortalecimiento de la calidad es un proceso de mejoramiento continuo que se debe adelantar de manera paralela a la implantación de soluciones de tecnología de información. Este proceso de mejoramiento debe adecuarse a las etapas del ciclo de la gerencia de calidad total.

    domingo, 1 de marzo de 2009

    El conocimiento como infraestructura

    Como ejemplo de un estudio social de los sistemas de información, traduje y edité “El conocimiento como infraestructura” en la que Ole Hanseth nos propone un interesante acercamiento al concepto de conocimiento[1].



    El cambio de paradigmas o conocimiento se produce de tres maneras en las que también se produce el cambio de infraestructuras:

    a. Extensiones: cuando se extiende una infraestructura existente manteniendo compatibilidad con ésta. Por ejemplo añadiendo nodos a una red o añadiendo funcionalidades.
    b. Moderada: reemplazando un estándar por otro por medio de interfaces (gateways) que traduzcan entre estándares.
    c. Radical: reemplazando el anterior estándar por uno nuevo e incompatible con el actual.

    El primer caso ocurre cuando una nueva infraestructura empieza a crecer porque le resuelve las necesidades a un pequeño grupo de personas. A medida que la tecnología crece y madura se empieza a volver útil para otros grupos de personas que a su vez generan nuevas ideas acerca de cómo la nueva tecnología puede resolver otros problemas para otras actividades. A su turno, estas nuevas ideas generan nuevos requerimientos que de nuevo conllevan a un mayor desarrollo de la tecnología. A medida la tecnología crece en el número de usuarios, se vuelve incrementalmente atractiva para un mayor número de usuarios.

    Esa fue la manera en que Internet se dio a partir del proyecto ARPANET a fines de los años 60 por parte de la Agencia de Proyectos de Investigación Avanzada de las fuerzas armadas de los EEUU. Era una sencilla tecnología que conectaba a unos pocos usuarios para aplicaciones experimentales. Pero en dicha experimentación se descubrieron nuevos usos posibles y nuevos usuarios se vieron atraídos hacia ella. Los nuevos usos requirieron nuevas funcionalidades y capacidades. Empezó a crecer tomando cada vez más el rol que jugaban otras tecnologías de comunicaciones y de servicio postal. La tecnología cambió a la manera de “extensiones” de computadores y conexiones entre ellos, así como de funcionalidades.

    Internet creció manteniendo total compatibilidad hacia atrás si bien añadiendo servicios como el correo electrónico, la transferencia de archivos, y la red, sin cambiar lo que se ofrecía previamente.

    En algunas ocasiones Internet aparecía en situaciones en que la tecnología anterior era inferior y por ende se requirió el reemplazo con alternativas mejoradas. En estos casos se presentó un cambio a la manera “moderada”.

    Un ejemplo de similitud entre cambio de paradigmas científicos y los de infraestructura es el estudio del cáncer.

    La presentación de Fujimura [2] del viraje de la investigación del cáncer desde su origen viral hacia su origen genético identificó como elemento clave para su comprensión a los “paquetes estandarizados”. Un paquete estandarizado era un conjunto de objetos diferentes e interdependientes. Así mismo cada objeto estaba estandarizado. Los objetos eran técnicas, instrumentos y herramientas requeridas para “la investigación de la genética del cáncer”, que incluía incluso un ratón de laboratorio. La estandarización de herramientas, instrumentos, técnicas, el ratón y el conocimiento acerca de cómo utilizar el paquete fue la precondición para la comparación y acumulación de conocimiento en la comunidad de investigadores del cáncer. Además de la estandarización, era necesario el paso a la masificación mediante un precio asequible del paquete y la facilidad de adquisición de los conocimientos asociados.

    El paso de la investigación del virus hacia la investigación de la genética del cáncer fue un cambio radical.

    Se debe entender que el paralelismo entre infraestructura y conocimiento no sólo se da en los procesos de cambio. Otras características de la infraestructura que aplican al conocimiento son su invisiblilidad (suelen estar bajo la superficie o bajo páneles), su tamaño (para llamarse así deben ser grandes), su peso (en términos de que son difíciles de mover o cambiar) y su estabilidad (en cuanto a una madurez que permite su uso confiado).

    Si bien la infraestructura y el conocimiento están sujetos a la ruta dependiente y a los cerramientos (revisar las caracterizaciones de la economía de la información), lo cierto es que en la realidad hay innovación en los estándares tecnológicos y procedimentales.

    La implicación de acercarse al conocimiento como infraestructura es comprender que se necesita una masa crítica de conocimientos base previos y de promotores o usuarios de dicho conocimiento antes de que se produzca un cambio radical en un paradigma. Esto implica que el nuevo paradigma necesita una red de conocimiento compatible con el mismo.

    Las prácticas materiales, instituciones, nociones dadas por sentadas, las comunidades, ect..., contribuyen a la clase de conocimiento que producen y a la forma en que es producida y usada. El conocimiento está relacionado con una heterogénea base instalada que se “da por sentada” y que trabaja como un recurso compartido por la comunidad asociada al mismo. Es una definición muy similar a la que se ofrece de infraestructura informática (Hanseth 2000). Esta perspectiva puede proporcionar un sentido de complejidad en el conocimiento, intrincado y entreverado con muchas otras entidades dentro de una gran y heterogénea red. Reconocer esto tiene implicaciones en la epistemología del conocimiento, el aprendizaje y la innovación.


    [1] HANSETH, Ole. Knowledge as infraestructure. En: CHRISANTHI, Avgerou; CIBORRA, Claudio; LAND, Frank. The Social Study of Information and Communication Technology: Innovation, Actors, and Context. New York, Oxford University Press. 2004. 103 - 118.

    [2] FUJIMURA, J.H. Crafting Science: A Socio-history of the Quest for the Genetics of Cancer. Cambridge, MA. Harvard University Press. 1996.

    [3] HANSETH, Ole. The economics of standards. En: CIBORRA, Claudio. Form Control to Drift: The Dinamics of Corporate Information Infrastructures. Oxford: Oxford University Press. 2000. 56 - 70.

    Economía de la información

    Cuatro caracterizaciones de la economía de la información aplicadas a las infraestructuras y el conocimiento:

    Externalidad de red: Se produce cuando sujetos ajenos a una transacción se ven afectados por ésta. Un ejemplo tecnológico es cuando alguien se adhiere a un estándar de correo electrónico. Además de beneficiarse él, se benefician todos los usuarios de dicho estándar por cuanto ahora tienen una persona adicional con la cual comunicarse. Un ejemplo respecto al conocimiento es cuando un doctor adopta algún nuevo procedimiento. En ese caso todos los doctores que lo han adoptado se benefician por cuanto podrán establecer procesos de comunicación y colaboración con este nuevo doctor. Así como hay externalidades de tipo positivo o beneficiosas, puede darse el caso de externalidades negativas o perjudiciales.


    Rendimientos crecientes: Un estándar es más valiosos en la medida que más personas hagan uso del mismo, llegando a un punto en que hay rendimientos crecientes por cada usuario adicional de dicho estándar, llegándose a su máximo valor cuando todo los usuarios hacen uso del mismo. Como resultado del crecimiento del número de personas afiliadas a un determinado estándar de correo electrónico o determinado procedimiento médico, el valor económico de dicho estándar o dicho procedimiento crece debido precisamente a que mayor número de personas pueden comunicarse entre sí por estos medios.


    Ruta dependiente: Este concepto se da en los periodos en que dos o más estándares compiten entre sí. A medida que más personas hacen uso de un estándar respecto a otro, más personas estarán más incentivadas a usar el primer estándar pues se vuelve más valioso en términos de capacidad de comunicación por medio del mismo, acrecentándose la ventaja del primero respecto al segundo. Un ejemplo usual es el sistema operativo de Microsoft o el teclado QWERTY. Cuando dicha ventaja llega a cierto nivel, se llega a un estado de irreversibilidad en la ventaja, la dominancia del mercado.


    Cerramiento (aprisionamiento): La ruta dependiente hace que en algún momento algún competidor se vuelva eminentemente dominante. Aún si hubiera estándares superiores a uno dominante, éstos no tendrían valor porque nadie los adopta. Si un individuo pensara en adoptarlo debido a su calidad, lo desecharía porque nadie lo usa. Se crea un cerramiento hacia otros estándares.

    Costos de cambio: Cambiar las plataformas organizacionales puede ser muy costoso. Varian menciona que un estudio halló que el costo total de instalar un ERP como SAP es once veces más grande que el precio del software mismo. Estos costos son endémicos en la industria de alta tecnología. Es una manera adicional de cerramiento.

    Cuando el costo de cambio es alto, la competencia para atraer nuevos clientes es grande, ya que promete un flujo de futuros ingresos. Es el caso de la posibilidad de adquirir impresoras a un precio irrisorio, para después encontrarse pagando importantes valores en repuestos de tinta.

    La manera de atraer nuevos clientes, quitándoselos a la competencia, es descontando del precio el costo de cambio para el cliente. Es el caso de las compañías que ofrecen televisión por cable y acceso a Internet, que durante los primeros “n” meses proporcionan el servicio “gratis”.


    Bibliografía:

    CIBORRA, Claudio. The Labyrinths of Information: Challenging the Wisdom of Systems. Great Britain. Oxford University Press, 2002.

    VARIAN, Hal R., FARREL, J; SHAPIRO, C. Competion and Market Power en The Economics of Information Technology: An Introduction. Cambridge University Press, 2004.