viernes, 2 de octubre de 2009

Bibliografía básica

Siguiendo la línea del London School of Economics y las citas infantables en muchos autores de los estudios sociales de los sistemas de información, incluyo una lista bibliográfica mínima que iré complementando poco a poco:

  • CASTELLS, Manuel. La era de la información. México D.F. Siglo XXI Editores. 2001
  • CIBORRA, Claudio. Teams, Markets and Systems: business, innovation and information technology. UK. Cambridge University Press, 1993.
  • CIBORRA, Claudio. The Labyrinths of Information: Challenging the Wisdom of Systems. Great Britain. Oxford University Press, 2002.
  • MINGERS, John y WILLCOCKS, Leslie. Social Theory and Philosophy for Information Systems. Chichester, England. John Wiley & Sons, 2004.
  • VARIAN, Hal R., FARREL, J; SHAPIRO, C. Competion and Market Power en The Economics of Information Technology: An Introduction. Cambridge University Press, 2004.
  • WALSHAM, Geoff. Interpreting Information Systems in Organizations. New York, NY, USA . John Wiley & Sons, Inc. 1993.
  • ZUBOFF, Shoshana. In the Age of the Smart Machine: The Future of Work and Power. Basic Books, New York, 1988

Resultados esperados en un proyecto OLPC

El XO puede trabajarse en dos roles, el básico para el que fue creado, como herramienta educativa, y el de herramienta para la inclusión digital . Son dos orientaciones no excluyentes en relación a la incorporación de las TIC en el sector educativo: i-) la de mejoramiento de las capacidades de investigación, desarrollo e innovación que denominaré el paradigma de las TIC como medio pedagógico y ii-) la de apoyo a la productividad y el comercio que definiré como el paradigma de la sociedad de la información.

El paradigma de las TIC como medio pedagógico implica que se usen como medio para la mejora del aprendizaje, es decir, para apoyar procesos de pensamiento y de resolución de problemas; para el trabajo en equipo y el desarrollo de proyectos en conjunto; para el modelamiento, simulación y visualización de problemas matemáticos y de otras ciencias básicas; y para permitir el aprendizaje virtual e interactivo. Es un enfoque orientado a la utilización de las habilidades durante la época de estudios, no la época laboral.

El paradigma de la sociedad de la información conlleva la idea que el sector educativo debe formar al recurso humano con las habilidades y competencias necesarias para el trabajo. Implica crear una alfabetización informática básica en herramientas de productividad como procesadores de texto, hojas electrónicas de cálculo y procesamiento gráfico y de medios audiovisuales, en el uso de Internet, en herramientas de trabajo colaborativo y en habilidades de búsqueda e interpretación de información. A nivel de la educación superior implica la enseñanza a nivel técnico y tecnológico de habilidades específicas para ciertas ocupaciones, y a nivel universitario del desarrollo de programas del tipo de las ciencias de la computación y la administración informática, necesarias para implementar y administrar los sistemas que requiere el sector productivo y de servicios. Esta visión esta alineada además con la política del gobierno nacional de la inclusión digital, uno de cuyos proyectos principales, el gobierno electrónico, interesa a todos los niveles administrativos, incluido el departamental. El gobierno electrónico está orientado a 1) apoyar la reestructuración de las funciones y los procesos administrativos, 2) sobrepasar las barreras que hay para la coordinación y cooperación entre las entidades de la administración pública, 3) monitorear el desempeño gubernamental y 4) mejorar las relaciones entre el gobierno y la ciudadanía. Pero el Gobierno en Línea también permite replantear la forma en que el gobierno y el mercado se interrelacionan en busca de un Estado del menor tamaño posible apoyado en Tecnologías de Información y Comunicaciones que sea más ágil, transparente y que rinda cuentas a la ciudadanía.

Bibliografía:

La mención de los paradigmas está basado en Felipe Jara Schnettler: E-Learning; en Building an Information Society: a Latin American and Caribbean perspective. CEPAL. Naciones Unidas. 2003. y en Ronald Anderson: The Role of the Information Society Model in Education; en Perspectives And Policies on ICT In Society: An IFIP TC9 (Computers And Society) Handbook. Editores: Jaques Berleur y Chrisanthi Avgerou, IFIP Technical Committee 9. Publicado por Springer, 2005.
Jara menciona como tercer paradigma el cambio e innovaciones a gran escala en los colegios, como por ejemplo la administración. Anderson menciona como tercer paradigma el relacionado con la educación para el trabajo. Ninguno de estos terceros paradigmas se trata en la presente exposición.

Los usos de cada paradigma se ampliaron respecto a lo presentado por Anderson y Jara con lo mostrado en el recuadro de usos educativos de las TIC del documento “Visión Colombia 2019. Educación”, a su vez tomado de Desarrollo profesional docente con apoyo de tecnologías de información y comunicación, Alianza por la Educación MEN – Microsoft, 2006, escrito por Álvaro Gálvis.

Claudio Ciborra y Diego Navarra. Good Governance, Development Theory, and Aid Policy: Risks and challenges of E-government in Jordan. Information Technology for Development. Vol. 11 (2) 141 – 159 (2005). Willey Periodicals, Inc. En: Fernando López-Torrijos. El sector educativo en la Inclusión Digital. Noviembre de 2008.

OLPC en Colombia

La iniciativa OLPC ha dado varios pasos en Colombia de la mano de instituciones públicas y privadas:




  • La Fundación Pies Descalzos , la Organización Internacional para las Migraciones (OIM), la Alcaldía de Soacha, la Secretaria de Educación de Soacha, la Universidad Minuto de Dios y Alianza Educativa apoyan dos escuelas en Altos de Cazucá, en el municipio de Soacha del departamento de Cundinamarca, al sur de Bogotá. Es el mayor asentamiento de personas desplazadas por la violencia en Colombia. La Fundación Pies Descalzos también desarrolla e implementa una intervención educativa de los estudiantes de 2do y 3er grado en otras dos escuelas públicas que concentran alta población desplazada en las ciudades de Quibdo y Barranquilla.


  • El proyecto Vuela de la Fundación Marina Orth inició en el año 2008 en la Institución Educativa Rural Marina Orth del municipio de Medellín, como proyecto piloto de la Fundación OLPC para Colombia.


  • Proyecto Todos al Computador de la Gobernación de Caldas, en el municipio de Riosucio, dentro del Programa de acceso al computador de Caldas y con la participación de la Fundación Internacional de Pedagogía Conceptual Alberto Merani. Son 270 XO en las Instituciones Educativas Normal Superior Sagrado Corazón y la Institución Educativa Simón Bolívar ubicada en el Resguardo indígena de San Lorenzo, con niños y niñas que cursan básica primaria.


  • Proyecto Educativo Renovado Laptop para el Aprendizaje y la Superación (PERLAS) en el municipio de Bello, Antioquia, en las instituciones educativas de carácter privado Santo Domingo y Luz de Oriente, ejecutado por la Fundación Gente Unida, idea puesta en marcha desde noviembre de 2008. El proyecto quiere, entre otros objetivos, facilitar el acceso a las tecnologías computarizadas a los niños, empezando por la básica primaria; pero teniendo en la mira la formación secundaria.


  • Proyecto Un Computador por Niño ubicado en el Municipio de Itagüí, departamento de Antioquia, en la Institución Educativa Juan N. Cadavid. Incorpora diecisiete alumnos con limitación auditiva y veintiún alumnos sin ningún tipo de discapacidad correspondientes a los grados de preescolar hasta quinto de primaria.


  • El Ministerio de Defensa donó cerca de 850 XO a las siguientes instituciones: Colegio Castilla la Nueva (sedes principal, San Lorenzo, El Progreso y Las Violetas) e Institución Educativa Jhon F. Kennedy, del departamento del Meta en inmediaciones de la Serranía de La Macarena.



  • Fuentes:

    http://www.fundacionpiesdescalzos.com/joomla/index.php?option=com_content&view=article&id=12&Itemid=20
    http://idbdocs.iadb.org/wsdocs/getdocument.aspx?docnum=1520920
    http://wiki.laptop.org/go/OLPC_Colombia/Piloto_Fundaci%C3%B3n_Marina_Orth
    http://todosalcomputadorcaldas.blogspot.com/
    http://www.genteunida.org.co/perlas/xo_perlas.html
    http://educacionitagui.blogspot.com/

    Currículo para un curso sobre los Aspectos Sociales de los Sistemas de Información

    El objetivo de un currículo de un semestre sobre los aspectos sociales de los sistemas de información es ofrecer una perspectiva alternativa de los Sistemas de Información en el que se incluyan los factores humanos, la innovación, la complejidad y las nuevas tecnologías.

    Estaría dirigido a estudiantes de administración de empresas, ingeniería industrial y sistemas y otras carreras que vayan a tener un rol directivo, preferiblemente de especialización o de últimos semestres de pregrado como materia optativa.

    Programa:

    Definiciones: Información, Sistema, Sistema de Información. El enfoque sobre datos, información y conocimiento que se tiene en diversas disciplinas: las ciencias de la información, la estadística, la administración, la economía y la ingeniería de sistemas. Notas de clase.

    Breve historia de los Sistemas: Bertalanfi: el enfoque sistémico; el enfoque cibernético; Checkland y los sistemas suaves; Serge Lang y la quinta disciplina: aprendizaje organizacional; estudios sociales de los SI.

    La toma de decisiones: fuentes, los SI ¿para qué?. ¿Ecologías?. La improvisación y el estado de humor como factores determinantes.

    Historia de la gestión de proyectos de SI. Tasa de falla en la implantación. Alternativas de gestión de proyectos de SI. Componente humano en la gestión de estos proyectos. Enfoque Tradicional e Innovativo. Dèrivè de Ciborra. Lecturas varias.

    Infraestructura y TICs. Breve historia de Internet; nuevas visiones: computación ubicua (outsourcing, data center, clouds, grids, ...); Gestell. Presentación alumnos.

    Visiones alternativas: innovación, complejidad, colaboración, fenomenología, ANT, Hospitalidad. Ciborra. Notas de clase.

    Microeconomía de la tecnología de información (Varian). Innovación combinatoria, diferenciación de precios, costos de cambio y lock-in, economías de escala, estandares, bienes complementarios, ...

    domingo, 20 de septiembre de 2009

    Tecnologías para la inteligencia de negocios

    Una compañera de trabajo está realizando un trabajo para su universidad en el cual realizó un resumen de los planteamientos de William Inmon en su libro Building the Data Warehouse. He aquí sus planteamientos.

    1. Inteligencia de Negocio

    Inteligencia de negocios se define como una arquitectura y una colección de operaciones integradas que buscan dar apoyo a la toma de decisiones y facilitar el acceso a los datos del negocio.

    La inteligencia de negocios facilita actividades como el análisis multidimensional, análisis de clasificación, minería de datos, análisis de negocios, manejo del conocimiento, implementación de un portal empresarial, data marts, almacenamiento de datos operacionales, entre otros.

    2. Data WareHouse - DWH

    Puede definirse como la unión de sus data marts contenidos. Esta conformada por dimensiones y tabla de hechos que buscan consolidar información de una o más fuentes distintas, para luego procesarla permitiendo su análisis desde infinidad de perspectivas y con grandes velocidades de respuesta. La creación de un datawarehouse representa en la mayoría de las ocasiones el primer paso, desde el punto de vista técnico, para implantar una solución completa y fiable de Business Intelligence.

    La ventaja principal de una data warehouse radica en las estructuras en las que se almacenan los datos, modelos de tablas en estrella, en copo de nieve, cubos relacionales, entre otros. Este tipo de persistencia de la información es homogénea y fiable, y permite la consulta y el tratamiento jerarquizado de la misma (siempre en un entorno diferente a los sistemas operacionales).

    Según definición de Bill Inmon, un datawarehouse se caracteriza por ser:

    Integrado: los datos almacenados en el datawarehouse deben integrarse en una estructura consistente, por lo que las inconsistencias existentes entre los diversos sistemas operacionales deben ser eliminadas. La información suele estructurarse también en distintos niveles de detalle para adecuarse a las distintas necesidades de los usuarios.

    Temático: sólo los datos necesarios para el proceso de generación del conocimiento del negocio se integran desde el entorno operacional. Los datos se organizan por temas para facilitar su acceso y entendimiento por parte de los usuarios finales. Por ejemplo, todos los datos sobre clientes pueden ser consolidados en una única tabla del datawarehouse. De esta forma, las peticiones de información sobre clientes serán más fáciles de responder dado que toda la información reside en el mismo lugar.

    Histórico: el tiempo es parte implícita de la información contenida en un datawarehouse. En los sistemas operacionales, los datos siempre reflejan el estado de la actividad del negocio en el momento presente. Por el contrario, la información almacenada en el datawarehouse sirve, entre otras cosas, para realizar análisis de tendencias. Por lo tanto, el datawarehouse se carga con los distintos valores que toma una variable en el tiempo para permitir comparaciones.

    No volátil: el almacén de información de un datawarehouse existe para ser leído, pero no modificado. La información es por tanto permanente, significando la actualización del datawarehouse la incorporación de los últimos valores que tomaron las distintas variables contenidas en él sin ningún tipo de acción sobre lo que ya existía.

    3. Data Mart

    Se define como una estructura de datos departamental, especializada en el almacenamiento de los datos de un área de negocio específica. Se caracteriza por disponer la estructura óptima para analizar la información al detalle desde todas las perspectivas que afecten a los procesos de dicho departamento. Un data mart puede ser alimentado desde una bodega de datos, o integrar por sí misma un consolidado de distintas fuentes de información.

    Ventajas de un data mart:

    Poco volumen de datos
    Mayor rapidez de consulta
    Consultas SQL y/o MDX sencillas
    Validación directa de la información
    Facilidad para la historización de los datos


    4. Arquitectura de un DWH

    Los Data Warehouse y sus arquitecturas varían dependiendo de la situación específica de cada organización y entre muchos de los problemas que deben abordar y solucionar, respecto a lo que a la extracción de datos se refiere, se destacan los siguientes:


  • Integración de los datos, dado que una situación normal en estos entornos es que cada una de las bases de datos esté soportada por gestores de diferentes fabricantes.
  • Elegir el momento en que se produce la carga del Data Warehouse. Lo importante en este tema se centra en que esta extracción se debe realizar en un momento en que todas las bases de datos estén en un estado estable de tal forma que se minimicen las posibles incoherencias.
  • Para realizar la carga no se puede parar la operatividad diaria de los sistemas fuente. Esto lleva a que hay que diseñar y preparar los procedimientos necesarios para minimizar el tiempo destinado a ello (normalmente se dispondrá de ventanas de tiempo bastante cortas y que pueden obligar a cargas parciales.
  • Se realiza una carga sobre una zona temporal sobre la que sí está permitido hacer transformaciones asociadas a la integración y comprobación de coherencia anteriormente mencionadas. En cualquier caso, el paso a la zona temporal se debe realizar sin ningún tipo de estructura para evitar retrasos indebidos, pero cuando se realice la carga a la Data Warehouse ya deben estar estructurados de acuerdo a su diseño final.

    5. Modelamiento de DWH

    Existen varios tipos de Modelamiento de una DWH: estrella, copo de nieve, starflakes y constelación.

    En un esquema estrella, existe una fact table y un conjunto de dimensiones. La integridad referencial esta dada entre la fact table y las dimensiones. Estas tablas de dimensiones pueden contener redundancia, especialmente si se manejan jerarquías.

    En un esquema copo de nieve se evita la redundancia de estrellas por la normalización de los esquemas de las tablas de dimensión. Por lo tanto, una dimensión está representada por varios tablas relacionadas por un constraint de integridad referencial.

    Un esquema copo-estrella (starflake) es una combinación entre un modelo estrella y un modelo de copo de nieve donde algunas dimensiones son normalizadas mientras otras no lo son.

    Un esquema constelación, tiene múltiples fact tables que comparten dimensiones Este tipo de esquemas incluyen tanto dimensiones normalizadas como desnormalizadas.

    6. Metodología para el diseño de un DWH

    Existe una amplia variedad de enfoques que se han propuesto para el diseño de un DWH. Sin embargo existen dos métodos más utilizados para diseñar DWH y sus respectivos data marts.
  • Diseño Top-down: Se crea un esquema general donde se encuentra toda la información y contiene data marts acorde con característica particulares de cada área de negocio o proceso.
  • Diseño Bottom-up: Cada data mart tiene su respectivo esquema teniendo en cuenta los requerimientos de los usuarios de cada área de negocio. Más adelante los esquemas son consolidados en una sola bodega de datos.

    7. Diferencias entre OLAP y OLTP

    Cuanto se habla de aplicaciones OLTP (On Line Transaction Processing), se hace referencia a una aplicación de gestión de transacciones donde se realizan tareas repetitivas y estructuradas y las transacciones se caracterizan por ser cortas. Las aplicaciones OLAP (On Line Analytical Processing) refieren a sistemas que dan soporte para toma de decisiones (DSS) y está caracterizada por actualizaciones poco frecuentes y consultas muy complejas.

    8. Modelo Multidimensional

    Se considera un modelo multidimensional, aquel modelo de datos como conjuntos de medidas descritas por dimensiones. Está enfocado en el trabajo con datos numéricos y busca facilitar la visualización y entender el modelado entidad-relación (E/R).

    9. Modelamiento de ETL

    ETL es conocido como el proceso de Extracción, Transformación y Cargue. En la fase de diseño conceptual se determina el mapeo necesario entre los datos fuente y los datos de la bodega. Luego en la fase de diseño lógico, se considera no solo el mapeo sino los atributos a tener en cuenta y la secuencia de cargue de éstos. Dependiendo del tipo de datos a almacenar en la bodega de datos, el ETL tendrá poca o mucha complejidad. Un proceso de ETL debe incluir procesos de ETL para cargue histórico, para cargue diario y para actualización de datos.


    Bibliografía: INMON, William H. Building the Data Warehouse. Fourth Edition. 2005 Wiley Publishing, Inc. Indianapolis, IN USA
  • domingo, 19 de julio de 2009

    El Proyecto OLPC

    En estos días tengo la fortuna de realizar una evaluación de una prueba piloto de OLPC. En dicho proyecto confluyen dos de mis áreas de trabajo principales: la inclusión digital y la educación. Por ahora hago una introducción a qué es un proyecto de éstos en términos generales:

    El Proyecto OLPC.

    Un Laptop por Chico (OLPC del idioma inglés One Laptop Per Child) es un programa educativo llevado a cabo por la organización sin ánimo de lucro del mismo nombre con sede en Delaware, EEUU, creada por catedráticos del Laboratorio de Medios del Instituto Tecnológico de Massachussets (MIT por sus siglas en inglés) para otorgar oportunidades educativas a los niños más pobres de todos los países del mundo mediante el diseño, manufactura y distribución de computadoras portátiles resistentes, de bajo costo, bajo consumo de energía, conectividad, aplicaciones y contenidos que posibiliten acceso y conocimiento a las tecnologías de la información como formas modernas de educación, principalmente para el nivel de primaria. En su visión, las formas modernas de educación incorporan metodologías activas, la lúdica, el aprendizaje colaborativo, la creación y el compartir[1].

    Las ideas detrás del proyecto están inmersas en el “construccionismo” de Seymore Papert del Laboratorio de Medios del MIT, el cual a su vez está inspirado en algunas ideas de la epistemología constructivista de Jean Piaget. De la teoría constructivista de la sicología tomaron la visión del aprendizaje como una reconstrucción más que como una transmisión de conocimiento, a la que añadieron la idea de un aprendizaje más efectivo cuando el individuo experimenta la construcción de objetos significativos[2].

    Si bien la idea se dio a conocer en el Foro Económico Mundial en Davos en el año 2005, las semillas se dieron en el Instituto Tecnológico de Massachussets desde el año de 1997 en que se invitó a educadores de países en desarrollo de todo el mundo para una lluvia de ideas acerca de cómo eludir la brecha digital entre los países más desarrollados y los demás. La premisa de la denominada conferencia 2B1 fue que la gente joven aprende tecnología más rápido que los adultos de tal modo que a través de ellos es que se podía integrar a los países en la nueva economía mundial[3].

    La organización OLPC creó un portátil denominado XO. El aparato tiene un tamaño pequeño que incluso dificulta su uso por parte de un adulto. El hardware de la máquina está diseñado para que permita una larga duración de la batería, no para ser rápida. Las baterías tienen una duración de días, no de horas, gracias a un procesador con baja frecuencia de reloj.


    El portátil posee dos grandes antenas de WiFi que son al mismo tiempo los cierres de la tapa. No tiene disco duro sino memoria flash como dispositivo para almacenar el sistema operativo y los datos del usuario. La memoria flash puede expandirse por medio de unidades externas de tipo estándar, a través de sus tres puertos USB.

    La tapa puede girarse totalmente y convertir al aparato en una pantalla tipo tableta sin teclado.

    También llevan una webcam en la tapa, micrófono, dos altavoces, lector de tarjetas SD, varios botones tipo consola de juegos, y LEDs diversos para teclado y batería.

    Los promotores del proyecto expresan que no es un producto creado para vender sino que es sobre todo un proyecto educativo. El portátil XO fue diseñado para la compra por gobiernos de países en desarrollo. La Fundación OLPC inició labores en 2005 e inició la distribución de los XO en noviembre de 2007.

    Principios del proyecto OLPC.

    Los principios del programa OLPC son cinco[4]:

  • 1. Posesión por parte de los niños. El uso libre del XO en casa va emparejado a deberes y responsabilidades tales como la protección, el cuidado y el compartir la herramienta. La portabilidad permite que sea una herramienta para el aprendizaje y la enseñanza en casa. La posesión permite extender de manera significativa el tiempo de experimentación con la herramienta para el niño y su familia.

  • 2. Edades tempranas. Diseñado para niños de 6 a doce años, lo cual cubre las edades que se corresponden con la básica primaria. No es necesario saber leer o escribir para el uso de los XO. De hecho es una herramienta que debe ayudar a la lecto-escritura. De ese modo, la idea es que cada año una nueva cohorte sea incorporada al programa. Cada niño debe llevar una bitácora de su ruta de aprendizaje en todas las disciplinas en las que trabaje con la herramienta.

  • 3. Saturación. El compromiso es con la educación elemental de los países en desarrollo. La saturación digital se obtiene al nivel geográfico que se considere pertinente mediante la intervención continua del programa respecto a las sucesivas cohortes de tal manera que ningún niño quede por fuera del programa. La comunidad es la responsable del programa y los niños deben encontrar apoyo por parte de múltiples instituciones, individuos y grupos. Debido a la conectividad inherente al programa, estas comunidades crecerán y se expandirán en múltiples direcciones en el espacio y el tiempo.

  • 4. Conexión. El XO se ha diseñado para obtener el mayor uso de la red inalámbrica disponible. Los portátiles están conectados entre sí, incluso sin acceso a la Internet. Si alguno logra conectarse a la Internet, los demás se conectan por medio de éste. La conectividad debe ser tan ubicua como el ambiente de aprendizaje lo permita. Se propone un nuevo tipo de escuela que va más allá de las paredes del establecimiento educativo. La conectividad permite la comunicación entre naciones, culturas y generaciones.

  • 5. Código libre y abierto. No hay restricciones con respecto a la distribución, OLPC no puede saber ni debe controlar cómo las herramientas creadas serán resignificadas en el futuro. Los niños son estudiantes y maestros. Cada niño con un XO puede potenciar el aprendizaje de otros niños. Se pueden enseñar unos a otros, compartir ideas, y por medio de la naturaleza compartida de su interfaz, apoyarse unos a otros en su crecimiento intelectual. A medida los niños crecen y persiguen nuevas ideas, el software, los contenidos, los recursos y las herramientas deben ser capaces de crecer con ellos. No hay ninguna dependencia inherente para que sean capaces de localizar el software en su propio idioma, arreglar problemas en el mismo o reorientarlo para sus propios objetivos.


  • El Sistema Operativo.

    Los XO vienen por defecto con un sistema operativo denominado Sugar, de código abierto, cuyo paradigma es diferente al mayoritariamente usado por los sistemas Windows y Linux de un ambiente de oficina con un escritorio, carpetas y archivos. El paradigma está orientado a actividades con acceso puramente gráfico. Así mismo tiene una agenda automática que almacena todo lo realizado por el niño para seguimiento por parte de los padres y docentes y para la retoma de actividades por parte del niño. El sistema almacena todo lo realizado sin necesidad de que el niño “salve” la información.

    Con el objeto de lograr que algunos potenciales usuarios hagan extensivo en sus países el uso de los XO, hacie el año 2008 se dio un doble viraje respecto al sistema operativo.


  • Permitir una versión ligera del Windows XP[5] como sistema operativo de los XO.

  • Desvincular el desarrollo del sistema operativo Sugar del proyecto OLPC, del cual se encarga ahora SugarLabs, el cual lo ha abierto a su vez para que funcione en otro tipo de portátiles y máquinas similares[6].


  • Objeciones al programa OLPC.

    Las objeciones al programa OLPC han estado centradas en[7]:


  • El presupuesto de los países en desarrollo debe orientarse hacia problemas más básicos y acuciantes como la cobertura y la provisión de infraestructura y de docentes capacitados.

  • La educación mediante tecnología no es prioridad para países en los que problemas de pobreza extrema no están resueltos.

  • Falta de claridad en la integración de los XO en el currículo.

  • Los procesos de corrupción desvían la distribución, evitando que lleguen a la población objetivo.

  • El peligro de robo.

  • La falta de soporte al hardware (el XO) y al software (sistema operativo y aplicativos).

  • El impacto ambiental de las máquinas.

  • La promoción de un modelo económico capitalista en poblaciones con una cultura tradicional por fuera de dicha lógica.



  • Objeciones como el impacto ambiental de las máquinas o la promoción de un modelo económico capitalista en poblaciones con una cultura tradicional por fuera de dicha lógica están fuera de lugar por cuanto tienen visos políticos e ideológicos que no son atribuibles al proyecto OLPC sino al uso que se haga de él. Así mismo ocurre con los procesos de corrupción, los cuales tienen más que ver con la madurez de la institucionalidad y los mecanismos de transparencia que se implementen.

    Continuará...


    Descargados el 19 de julio de 2009:
    [1] http://laptop.org
    [2] http://en.wikipedia.org/wiki/Constructionist_learning
    [3] http://en.wikipedia.org/wiki/2B1_conference
    [4] http://wiki.laptop.org/go/Core_principles
    [5]http://www.computerworld.com/s/article/9079798/Report_OLPC_may_eventually_switch_from_Linux_to_Windows_XP?TaxonomyId=76&intsrc=kc_top&taxonomyName=laptops
    [6] http://www.sugarlabs.org/index.php? template=press & article=20080515 & language=english #20080515

    [7] Give One Get One: Ideological and Political Content in Media and Blog Coverage of the OLPC Donation Program. Assignment for MSc in e-learning: e-learning Politics and Society. December 2007. David Brightwell; y Analysis of the OLPC Project. Chris Ho and Gregory Moy. ECS 188 - June 4th, 2008.

    jueves, 16 de julio de 2009

    El poder de las Infraestructuras

    A contunuación hago un resumen del tercer concepto que Claudio Ciborra expone en su libro "Los laberintos de la información: desafiando la sabiduría de los sistemas"

    Gestell.

    La capacidad de controlar una infraestructura tecnológica es limitada. Toda infraestructura toma tiempo construirla, normalmente no se construye desde cero y de todos modos con el tiempo surgen necesidades adaptativas. Tampoco se puede cambiar toda de manera instantánea. Lo nuevo debe ser integrado con lo existente, como extensión o como reemplazo de una parte (ver entrada sobre el conocimiento como infraestructura). De este modo la infraestructura vieja influye en la nueva. En el caso de la infraestructura informática, esta influencia es importante.

    Los tomadores de decisiones requieren tomar acción durante la ventana de tiempo en la cual pueden realizar intervenciones efectivas sobre la infraestructura a un precio moderado. Pueden influenciar grandemente el curso futuro de la infraestructura, pero para ello requieren de conocimiento sobre las alternativas disponibles, sin incurrir en costos de adquisición de dicho conocimiento asociados a la ineficiencia operativa inmediata: la tecnología que escojan debe ser aquella que tenga una mayor base instalada en el futuro, de tal modo que combata la ineficiencia asociada a la ruta-dependencia, externalidades y cerramiento de la tecnología (ver economia de la información). El desarrollo de interfaces son la mejor opción para conectar redes heterogéneas o aquellas basadas en diferentes versiones del mismo estándar. Esto, a su vez, ayuda a reducir los costos asociados a los grupos de usuarios que hubieran quedado huérfanos con la implantación de una nueva tecnología.

    Como se ve, el 'control' sobre las infraestructuras es limitado. En cambio podemos mirar a los sistemas técnicos como organismos que tienen vida propia y su 'cultivo' podría ser una táctica de interacción con dicho organismo.

    Esto implica ver a la tecnología como un actor más de una red socio-técnica. Es decir, el diseño de las infraestructuras no es llevado a cabo sólo por humanos, sino también por el propio actor tecnológico. La base instalada actúa de dos maneras: además de ser un actor que participa en cada actividad, actúa como mediador entre los actores no tecnológicos y el desarrollo de las actividades.

    De aqui surge la perspectiva del 'actor - network' (ver metodologías) en donde todo son actores, sin negar las diferencias o fronteras existentes entre lo social o humano y lo tecnológico, pero en donde éstas no estan 'dadas', sino 'negociadas'.

    Dentro de esta perspectiva hay dos conceptos de particular relevancia: inscripción y translación.

    Inscripción

    Los artefactos técnicos contemplan patrones de uso por parte de los actores de las redes, que fueron definidos durante el proceso de diseño.

    Los patrones de 'inscripción' pueden no ser exitosos si hay desviaciones respecto a los mismos. Un usuario puede usar el sistema de una manera no anticipada. (Ver Dérive).

    La fuerza de una inscripción, sea ésta seguida o evitada, depende de la irreversabilidad de la red de actores en la que se inscribe. Mediante el estudio iterativo de ida y vuelta entre lo diseñado y el uso real se puede describir el dinámico proceso de negociación del diseño definitivo de una red de éstas, y se puede aprender acerca de cómo lograr una meta dada.

    Translación

    De acuerdo a la perspectiva de la red de actores, la estabilidad y el orden social son continuamente negociados en un proceso de alineación de intereses. La translación es la habilidad para reinterpretar, representar o apropiar los intereses de los demás como propios.

    El diseño de una infraestructura es un proceso de translación en el que eventualmente se obtiene una solución unificada de las necesidades de los diferentes actores que componen la red socio-técnica.

    El estudio de la irreversabilidad de una red de actores captura la resistencia acumulada hacia el cambio. Entendiendo irreversabilidad no solo como la extensión en que es imposible deshacer lo realizado, sino también la extensión en que lo realizado configura y determina las subsiguientes translaciones. Los estudios sociales de la tecnología muestran que es dificil cambiar una infraestructura a medida que gana momentum.

    En esta esfera, también el establecimiento de estándares ha demostrado no ser un asunto meramente técnico, sino que se inscribe en una red de actores con elementos sociales y políticos.

    En el cultivo de la base instalada, la translación siempre va a ser importante en la implantación de nueva infraestructura. La adaptación es una respuesta a diferentes ambientes (por ejemplo locales frente a uno global) y culmina en un único estilo determinado no sólo por la tecnología sino por una cultura, unos cuerpos de regulación, unos hábitos y una manera de pensar.

    La infraestructura incorpora una representación de la organización que soporta su ecología institucional, organizacional y cognitiva. De este modo, la infraestructura es también un contexto formativo. Como tal configura la forma de trabajar y los libretos sociales que gobiernan la invención de formas alternativas de trabajar, los futuros modos de resolver los problemas y los conflictos, la revisión de los acuerdos institucionales y los futuros planes de transformación.

    Bajo una perspectiva fenomenológica Heddegeriana, la infraestructura la denomina Gestell por cuanto el término Heddegeriano representa lo que la tecnología es y lo que no es, lo inercial de ella, pero también lo dinámico.

    Bibliografía:

    CIBORRA, Claudio. The Labyrinths of Information: Challenging the Wisdom of Systems. Great Britain. Oxford University Press, 2002.

    miércoles, 1 de julio de 2009

    El propósito de los sistemas de información

    Alfredo Sarmiento Gómez[1], economista y asesor de carácter internacional, cuyo interés son los sistemas de medición y seguimiento a políticas en el ámbito social de la salud, la educación, el trabajo y la pobreza conceptuó en el año 1997 que en las organizaciones:

  • Primero se da una etapa de conocimiento y manejo administrativo de los recursos en dónde se desarrollan aplicaciones para la administración de la planta de personal, la contabilidad, la tesorería y/o el almacén;

  • Una segunda etapa es el manejo de la información para conocer el medio, es decir, la información diagnóstico que ha dado lugar a las oficinas estadísticas.

  • Una tercera etapa es la información para el manejo de la gerencia que ya representa un indicador de madurez en el manejo administrativo. Con ella nacen soportes para el monitoreo, el seguimiento y la evaluación.

  • Y la última etapa es la construcción de sistemas que permiten prospectar las instituciones y tener un conocimiento del probable efecto que las medidas administrativas tendrían sobre la institución y el entorno que afecta.

  • Dicho concepto es interesante por cuanto nos da pie para analizar el propósito del diseño y desarrollo de sistemas de información:

    ¿El control?, ¿la toma de decisiones?, ¿la evaluación del resultado de las decisiones tomadas?, ¿el modelamiento de escenarios que permitan entender mejor el ámbito en el cual tomamos decisiones?

    La diferencia entre los cuatro propósitos se ubica en la actitud y el propósito con que se enfrenta el diseño de cada sistema de información.

    El Control

    La perspectiva de control más generalizada es la asociada al control de los recursos contables y a los físicos como el inventario o las necesidades de materia prima en una planta de producción. Otra perspectiva más general sobre cuándo se está administrando un sistema de control es, en los términos categorizados por Tom Pike[2], el que tiene un bajo número de transacciones y apoya poco a la toma de decisiones. Una tercera perspectiva, aún más amplia, la proporciona Claudio Ciborra al asociar control con el deseo de los gerentes de reducir la incertidumbre y por ende cobija también a los sistemas de información gerencial, de apoyo a las decisiones y los sistemas basados en conocimiento. La crítica que hace este autor a esta perspectiva más amplia es la de que los sistemas actuales son tan complejos que hacen que los actores pierdan el control sobre los mismos.

    La toma de decisiones

    La perspectiva de la toma de decisiones es otra muy común, pero deja por fuera la realidad de la forma en que se toman decisiones. Por una parte hay que recordar que los sistemas son sólo uno de los elementos para la toma de decisiones. En su conocimiento tácito los tomadores de decisiones se basan en su experiencia y en diversas fuentes internas y externas a la organización a la que pertenecen tales como el correo electrónico, publicaciones generales, noticiosas y especializadas, cartas y memorandos, reuniones programadas e informales, comunicaciones telefónicas, correos de voz, visitas, almuerzos y eventos laborales y sociales, y por supuesto informes, algunos de ellos de fuentes computadorizadas y sistemas de información.


    La evaluación

    Los sistemas diseñados bajo la perspectiva de la evaluación permite aprender para realimentar un nuevo ciclo de mejoramiento. Son los sistemas de carácter estadístico y los Data Mining. De nuevo tomando la categorización de Tom Pike, los podemos asociar con los que proporcionan una imagen de la situación. La mayor crítica es que lo aprendido sirve para enfrentar situaciones similares pero que no aporta suficientes elementos para comprender y enfrentar un entorno altamente cambiante. Bajo un enfoque positivo, son útiles en entornos estables.

    La ampliación del conocimiento

    La perspectiva de la búsqueda del aprendizaje organizacional y la administración del conocimiento nos lleva a propuestas que permiten ampliar los esquemas mentales de todos los actores acerca del entorno y los probables escenarios futuros. Son propuestas de la escuela de Forrester, Senge y demás en las que los modelos los describen en términos de tres atributos que caracterizan diferentes procesos cognitivos y procesos grupales de equipos directivos[3]:

  • Modelos como mapas que capturan y activan el conocimiento.

  • Marcos que filtran y organizan el conocimiento.

  • Micromundos para la experimentación, la cooperación y el aprendizaje.

  • Son efectivamente apoyados por sistemas, pero su mayor virtud está en la interrelación entre los actores que hacen parte de los procesos de modelamiento.

    Referencias:

    [1] SARMIENTO, Alfredo y BARRERA, José Miguel. Elementos para un sistema de información en educación. Revista Planeación y Desarrollo. Vol. 28, No. 1 / enero – marzo. Bogotá. 1997. Departamento Nacional de Planeación (DNP).

    [2] PIKE, Tom. Information renaissance. Coral Springs, FL. 1993. Sherwood Publishing en RAYMOND MCLEOD, Jr. Sistemas de información gerencial, 7ma edición. México 2000. Prentice Hall Hispanoamericana S.A.

    [3] MORECROFT, John D.W. Executive Knowledge, Models, and Learning. En Modeling for Learning Organizations. MORECROFT, John D.W. y STEARMAN, John D. (editors). Portland, Oregon, USA. 1994. Productivity Press.

    Ideas rescatables de TIC, innovación y complejidad

    Lo siguiente es una edición resumen de un artículo que presenta una visión alternativa de la complejidad a la expuesta por Ciborra y Hanseth. El artículo se llama "Ideas rescatables de Tecnología de la información, innovación y complejidad: Propuestas para un nuevo diseño empresarial" de Fernando Sáez Vacas[1].


    Entre los ingredientes de la compleja tecnología de nuestros días está su capacidad para generar incertidumbre, una circunstancia básica del nuevo entorno de las empresas, y por tanto un condicionante de la actitud de los individuos con respecto a la tecnología, lo que vale tanto como decir de los microprocesos de innovación.

    La tecnología forma parte y es uno de los elementos más significativos del entorno actual de las empresas. Se deduce directamente la implicación insoslayable de los gerentes con relación a la tecnología; la tecnología ya no es un problema técnico, sino que es como mínimo también un problema estratégico.

    La tecnología avanzada es muy compleja. Ello implica, por un lado, amplificar la complejidad de la organización (y de los individuos) en lo tocante a la comprensión y uso de una determinada tecnología; y, por otro, reducir la complejidad relacional (no la complejidad intrínseca, siempre creciente) de esa misma tecnología.

    Tenemos tres techos de posibilidades en el proceso de la información:

    a) Uno, teórico y relativamente fuera de nuestro alcance inmediato, que es el de toda la capacidad de cálculo y comunicación del mundo, representada por el tejido universal de redes y ordenadores,
    b) Otro, objetivamente ya disponible, y que está formado por todas las funciones, programas y servicios de información instalados en nuestro entorno tecnológico de trabajo.
    c) Y, por último, el conjunto de posibilidades que realmente aprovechamos o sabemos aprovechar.

    Ciertamente, la intersección de los sistemas tecnológicos con los sistemas sociales origina un nudo de relaciones de complejidad antropotécnica - o sociotécnica - que se manifiesta específicamente por fenómenos habituales relacionados con el desorden, la incertidumbre, la desorganización, la inestabilidad, la entropía, la borrosidad. Se enfrentan dos clases de complejidades, la complejidad ordenada de los mecanismos técnicos y la complejidad desorganizada del hombre y de los sistemas sociales.

    Prevenir las improcedentes secuelas del optimismo tecnologista supone recurrir a estrategias. Una parte de la estrategia es aceptar que la organización tiene siempre que incrementar su complejidad si quiere evolucionar, como hacen los organismos vivos. Mélése proporciona algunas pistas, que relacionaremos, primero, y explicaremos a continuación.

    a) Una organización es un sistema de representaciones mentales, difícilmente separables de su entorno.
    b) Todas las organizaciones tienen que afrontar el problema de información desde un punto de vista global.
    c) La autonomía y la innovación requieren complejidad.
    d) Dicha complejidad tiene que distribuirse entre todos los niveles de la organización.

    Un tipo de complejidad sólo sistémica o de control desarrolla una organización con puestos de trabajo bien definidos, procedimental, especializada e introspectiva. Multiplica las interacciones entre los elementos del sistema en un medio interior definido como determinista, por lo que crece desproporcionadamente el coste del control, como se demuestra incluso matemáticamente. A esta clase de complejidad algunos la llaman complicación. Es el germen de la burocracia, que a su vez es un blindaje contra el entorno y un antídoto contra la innovación.

    Pensar en un sistema organizativo con menos puestos de trabajo, pero más ricos funcionalmente y enmarcados en un conjunto más aleatorio de interacciones variables –situación como hecha a la medida de las actuales tecnologías de información y comunicaciones- es pensar en una organización más orientada al entorno, más tolerante a los fallos, más arriesgada, más responsable, más cooperativa, menos fijada en el estatus personal, con alguna capacidad para crear orden a partir del desorden, con complejidad distribuida.

    Bibliografía mencionada en el resumen:

    J. Mélése, Approches systémiques des organisations: vers l'entreprise á complexité humaine, ed. Hommes et Téchniques, Suresnes, 1979.

    [1] Ideas rescatables de Tecnología de la información, innovación y complejidad: Propuestas para un nuevo diseño empresarial. Sáez Vacas, Fernando.

    miércoles, 15 de abril de 2009

    Las ciencias de la complejidad

    En el estudio de los sistemas de información es inevitable acercarse a la teoría de la complejidad. Como lo prometí en una entrada anterior, hago un resumen de la exposición de Merali sobre la misma.



    Merali expresa que las llamadas ciencias de la complejidad no son una ciencia sino un cambio de paradigma en cuanto que:

  • La visión clásica tiene un énfasis en términos de la estabilidad y estructura de los sistemas y la nueva visión enfatiza más la dinámica de los sistemas y la relación con su entorno.
  • La visión clásica se enfoca en el estudio de sistemas cuya frontera es clara frente al estudio de sistemas que funcionan dentro de un conjunto de redes, "red" en sentido amplio, y que por tanto sus fronteras no son claras.
  • La visión clásica sobre la información se enfoca en individuos, organizaciones y aplicaciones y la nueva visión se enfoca en la creación e interpretación de la información y el rol de las redes en estos procesos.

    Para sustentarlo Merali realiza un acercamiento fenomenológico a la Internet como un sistema de información global que comprende una compleja red multidimensional que conecta una diversidad de entidades (individuos, grupos, instituciones, naciones) a través de múltiples y diversos canales.

    Las redes consisten en nodos que tienen la posibilidad de comunicarse con otros. Cada nodo se caracteriza por sus interrelaciones con otros nodos y por su ubicación en la red.

    Los nodos de la red son agentes “sociales”. Si bien la infraestructura posibilita la comunicación, son la interacción entre los agentes debido a dimensiones sociales, económicas, políticas, informacionales y tecnológicas las que configuran una red en uso.

    Dependiendo de sus objetivos, restricciones y proclividades cada agente activa conexiones en particular en momentos dados en el tiempo. Si se graficara la topología de una red en el tiempo, se denotarían cambios en los patrones de configuración de la misma los cuales no sólo son causa de la intensidad de dichos intercambios de información entre nodos en particular, sino también de cambios en los bordes de dicha red, ya que se atrofian algunos intercambios, nacen otros por causa de nuevos intereses colaborativos o renacen algunos aparentemente inactivos por un renovado interés por parte de los agentes.

    Otro tema relacionado con las redes en uso es la emergente diversidad, es decir, que cada agente tiene la posibilidad de interpretar un mensaje y amplificarlo o atenuarlo, difundiendo variadas versiones del mensaje interpretado.

    Ningún agente es capaz de tener conocimiento de toda la red en ningún momento ni de predecirlo: el estado de la red depende de la voluntad de los agentes y de su conocimiento limitado de la red y de su acervo personal y ambiente socio-cultural. Los agentes aprenden y olvidan, crean rituales o caen en modas, las invenciones llevan a innovaciones o pueden morir sin ser notadas.

    Hay una interrelación reflexiva entre el sistema y el ambiente externo. Los cambios en el sistema forman y son formados por dicha interrelación. El propio ambiente es una manifestación emergente de las múltiples interrelaciones del sistema que “hospeda”.

    En resumen, el acercamiento a los sistemas de información bajo este nuevo paradigma resalta ciertas características que son difíciles de reconciliar con la teoría clásica:

  • La emergente dinámica de las redes creadas de abajo-arriba por parte de los agentes reta la visión de arriba-abajo de un sistema compuesto de subsistemas que a su vez puede ser descompuesto en otros subsistemas.
  • Los subsistemas de un sistema clásico tienen fronteras definidas a través de las cuales tiene comunicación con los otros subsistemas y/o el ambiente externo. Las redes de redes sí se sobrelapan, de tal modo que son difíciles de representar de manera “modular”.
  • La compleja conectividad y evolución del contenido informativo de las redes hacen imposible predecir su estado en un momento dado del tiempo.
  • La topología global es definida por la dinámica colectiva y la dinámica colectiva emerge de las acciones locales llevada a cabo por cada agente haciendo difícil definir la relación entre la estructura y la dinámica del sistema.



  • Bibliografía


    MERALI, Yasmin. Complexity and Information Systems. En: MINGERS, John y WILLCOCKS, Leslie. Social Theory and Philosophy for Information Systems. Chichester, England. John Wiley & Sons, 2004. Capítulo 11.

    jueves, 26 de marzo de 2009

    La Complejidad en un sistema de información.

    Un sistema de información es complejo cuando consta de diversas y crecientes plataformas, aplicaciones, rutinas, prácticas y estructuras organizacionales que se integran bajo un entorno cambiante.
    Imagen Collage de mapas de complejidad
    Para definir si un sistema de información es complejo, es necesario definir complejidad. Iniciemos la exploración del término en su origen.

    Etimológicamente “complejo” proviene del latín complexus que significa circunscrito o rodeado, que a su vez proviene de complecti: "entrelazado."

    En el diccionario significa “abrazar, ceñir, rodear por todas partes algo” y en otra acepción “conjunto o unión de dos o más cosas”.

    En el Instituto de Investigación sobre la Evolución Humana definen la complejidad de una manera general como “una propiedad intrínseca de sistemas del universo que evolucionan al adquirir un mayor y más diversificado número de elementos que interactúan entre ellos”.

    Hanseth define que hay complejidad en los Sistemas de Información si hay presentes diferentes componentes, tipos de vínculos, y velocidad de cambio. Evidentemente hay concordancia entre los conceptos. Se entiende éste último como un caso particular del anterior.

    Hanseth resalta que la complejidad surge cuando plataformas, aplicaciones, rutinas, prácticas y estructuras organizativas están integradas. Esta visión contrasta con la tradicional a la que le basta con referenciar sólo a la tecnología: componentes de gestión de bases de datos, de seguridad y de comunicaciones.

    La definición de complejidad tiene tres puntos focales. 1 - Los componentes que son los que se entrelazan o “integran” en el lenguaje moderno de las tecnologías de información y comunicaciones. 2 - Los componentes tecnológicos interaccionan y evolucionan vía la mencionada integración y el diseño (o rediseño), los cuales son producto de la intervención humana. 3 - La diversidad de tipos de componentes. A los componentes tecnológicos debemos añadir los vínculos con componentes organizacionales e individuos.

    Emerge de nuevo la necesidad de incorporar el factor social para dar cuenta global de la complejidad de un sistema de información.

    Un nuevo enfoque sobre el tema es expuesto por Yasmin Merali y se puede ver en la entrada correspondiente haciendo clic aquí.

    Bibliografía:

    - ICT, Risk and Complexity. HASETH, Ole y CIBORRA, Claudio (editores) Cornwall, Gran Bretaña. 2007. Edward Elgar Publishing.
    - La Complejidad. MURGUÍA AGUDELO, Guillermo y ALCALÁ RIVERO, José Guillermo. Instituto de Investigación sobre la evolución Humana AC. Página WEB Evolución y Ambiente; Sistemas complejos: http://www.iieh.com/complejidad/articulos_complejidad01.php. Consultada el 26 de marzo de 2009.
    - http://www.etymonline.com y Diccionario de la real Académia española de la lengua.

    miércoles, 25 de marzo de 2009

    TIC, riesgo y complejidad. (3)

    La investigación presenta una tercera teoría de la complejidad: la teoría actor-red (Actor-Network Theory - ANT por sus siglas en inglés ). ANT no ha sido tradicionalmente etiquetada como teoría de la complejidad, pero muy bien se podría decir que la complejidad ha sido la cuestión que aborda ANT en la investigación. No es la complejidad en todas sus variedades, sino la complejidad creada por la densa red de relaciones entre los científicos y los no científicos (es decir, social, organizativa, política, etc...) dentro de los estudios de la ciencia y de manera similar entre lo tecnológico y lo no tecnológico en los estudios de la tecnología. En consonancia con ello, recurrimos a ANT para develar y analizar un aspecto de la definición de complejidad presentada anteriormente: cómo los diferentes tipos de elementos están relacionados.

    Recientemente la complejidad se ha abordado explícitamente en ANT (Law y Mol, 2002). Una cuestión que se pone de relieve es lo que a veces se etiqueta como “órdenes desórdenes”, lo que significa que cuando se intenta poner orden en un dominio o "mundo" (por ejemplo mediante la creación de una nueva norma), por desgracia, el dominio o "mundo" a tratar está conectado a otros dominios o 'mundos' más allá de lo que somos capaces de ver y afrontar. Por consiguiente, cuando estamos tratando de poner orden en un dominio, como un efecto secundario estamos creando desórdenes en otros (Berg y Timmermanns, 2000).

    El libro también presenta las más pertinentes investigaciones sobre las tecnologías complejas desde el campo de los Estudios de la Organización. Esto incluye en primer lugar a la Teoría de accidentes del trabajo normal (1984) de Charles Perrow. Sostiene que los sistemas tecnológicos complejos que están estrechamente aparejados y caracterizados por la complejidad interactiva (a diferencia de las interacciones secuenciales) nunca serán completamente seguros – los accidentes son normales. Esto se debe a que nunca tendremos un conocimiento completo acerca de cómo van a operar en todas las circunstancias. En consecuencia, no podemos asegurarnos de que estarán libres de errores o comportamientos impredecibles. Son riesgos inherentes a su existencia. De esta manera la teoría de Perrow está bien alineada con las teorías presentadas anteriormente, y apoya la hipótesis que se explorarán en nuestra investigación.




    Concluye Hanseth que no construir sistemas complejos es la única estrategia que se puede recomendar sobre la base de la investigación mostrada en el libro. (Y las hipótesis acerca de cómo se pueden reducir los riesgos mediante la reducción de la velocidad del cambio y el crecimiento significa, también, evitar hacer sistemas complejos según la definición de complejidad presentada al comienzo.) Pero, de hecho, no la ven como una estrategia realista. Creen que, entre otros procesos, la globalización hace que el mundo sea más complejo, más impredecible y rápidamente cambiante. Esto generará enormes necesidades de más sistemas de información integrados - que todavía es el mantra de los SI. En consecuencia, creen que las soluciones integradas de TIC traerán más combustible a los procesos haciendo a la Sociedad del Riesgo y a la Modernización Reflexiva más real y a las organizaciones de alta fiabilidad más raras. Desgraciadamente.



    La exposición es muy interesante, pero la conclusión decepcionante. No obstante, Hanseth, en colaboración con otro académico de la Universidad de Oslo han sacado en fechas recientes una propuesta metodológica para abordar la complejidad en los sistemas de información. Otra perspectiva es la de Yasmin Merali, la cual se enfoca en que ante la complejidad hay que cambiar la perspectiva de estudio. Estoy escribiendo la entrada correspondiente.


    Referencias mencionadas en los parágrafos seleccionados:

    Berg, M. and S. Timmermanns (2000), ‘Orders and their others: on the constitution of universalities in medical work’, Configurations, 8(1), 31–61.
    Law, J. and A. Mol (2002), Complexities: Social Studies of Knowledge Practices, Durham, NC: Duke University Press.
    Perrow, C. ([1984]1999), Normal Accidents: Living With High-Risk Technologies, New Jersey, USA: Princeton University Press.

    Basado en ICT, Risk and Complexity. HASETH, Ole y CIBORRA, Claudio (editores) Cornwall, Gran Bretaña. 2007. Edward Elgar Publishing.

    TIC, riesgo y complejidad. (2)

    Imagen de decenas de 'nodos' inreconectadosLa complejidad podría definirse de una manera simple e intuitiva como la "suma" del número de componentes y conexiones entre ellos. Schneberger y McLean (2003) han propuesto una definición un poco más sofisticada - pero aún muy simple -. Ellos ven la complejidad dependiente del número de diferentes componentes del sistema, del número del tipo de vínculos, y de su velocidad de cambio. Aunque la primera definición parece ser similar a la adoptada por los autores del informe de la BCS / RAE, hemos adoptado la última ya que tiene bien en cuenta la complejidad creada por el aumento de la integración como se ha señalado anteriormente. La complejidad a que hace referencia el informe de BCS no es realmente compleja de acuerdo con esta definición porque sólo se habla de sistemas de componentes tecnológicos - que es cuando los componentes y los vínculos entre ellos son todos tecnológicos. Podríamos decir que esos sistemas sólo son complicados (Latour, 1999, p. 304). Uno podría decir, sin embargo, que los sistemas de TIC, como tecnología pura, contienen componentes tecnológicos de muchos tipos tales como componentes de gestión de bases de datos, componentes de seguridad y de comunicación. Sin embargo, la segunda definición dice que la complejidad "real" surge cuando componentes de diferentes tipos se han integrado. Este es el tipo de complejidad que surge cuando plataformas, aplicaciones, rutinas, prácticas y estructuras organizativas están integrados.

    El capítulo escrito por Kallinikos señala tres cuestiones fundamentales. La primera de ellas es nuestra relación con nuestro mundo y el hecho paradójico de que cuanto más conocimiento (científico) tenemos sobre el mundo que habitamos y entre más tecnología avanzada desarrollamos para ayudarnos al control de nuestro mundo, más parece irse más allá de nuestro control, esto es, hay más riesgos. Los mejores ejemplos de esto son el calentamiento global y las posibles consecuencias del cambio climático, o incluso peor - los riesgos de una guerra nuclear que pueda destruir todo el planeta. Kallinikos atribuye esta paradoja al hecho de que por mucho conocimiento que producimos, nuestro conocimiento sobre nuestro mundo será incompleto. Además, nuestro mundo y el conocimiento acerca de él no son independientes. Cuando estamos produciendo conocimiento sobre nuestro mundo, al mismo tiempo estamos construyendo un mundo más complejo.

    La segunda cuestión que examina Kallinikos se refiere al tiempo y lo que él llama la «orientación futura". En el núcleo de este argumento está el hecho de que nuestro mundo es inherentemente contingente e imprevisible. No podemos eludir este hecho a pesar del cálculo anticipado de todos los dispositivos que se supone nos ayudan a predecir el futuro - o al menos al cálculo de la probabilidad de diferentes escenarios. Además, la naturaleza contingente de nuestro futuro es una condición previa para muchas actividades. El mundo está constituido de manera abierta y plural, y se presta a iniciativas e intervenciones que podrían hacerlo diferente del actual. Sin riesgo no hay oportunidades y, por tanto, no hay lucro, y sin ánimo de lucro tampoco hay iniciativas económicas.

    La tercera cuestión que discute Kallinikos es la relación entre tecnología y riesgo. La tecnología es tradicionalmente vista como una herramienta para el control y, en consecuencia, la gestión o la reducción de riesgos. Sin embargo, existen importantes limitaciones a cómo la tecnología puede abordar las cuestiones aquí mencionadas. Basándose en Luhmann, Kallinikos retrata a la tecnología como una forma estructural cuyas principales características son el cierre y la simplificación funcional. Esto significa que podemos tratar con la realidad mediante la simplificación de ésta en un dominio cerrado y especificar la forma en que la tecnología puede hacer frente a cada uno de los elementos en este ámbito y en sus estados. La tecnología, entonces, tiene limitaciones importantes cuando se trata de incertidumbre - en palabras de Kallinikos: "la tecnología trata con lo inesperado excluyéndolo ".

    Después de este debate general sobre los riesgos y la tecnología Kallinikos se vuelve hacia lo que es específico para los sistemas informáticos de gran escala resaltando tres aspectos: auto-referencialidad, interconectividad y des-secuenciación del tiempo. La auto-referencialidad denota el hecho de que la información no es sólo datos relativos a la realidad. Cuanto más información recogemos y procesamos, más información vamos a producir relativa a la información. Esto puede llevarnos a una especie de complejo sistema autónomo de información y una “desanclaje de la realidad inmediata”. Los otros dos aspectos de los sistemas de información de gran escala se refieren más directamente a las cuestiones relativas a la integración, la complejidad y el riesgo que se ha mencionado anteriormente. A través de una mayor interconexión de los sistemas de información, creamos sistemas más complejos que son más difíciles de controlar. Y este aumento de la interconexión de los sistemas contribuye a lo que denota Kallinikos como des-secuenciación del tiempo, en dónde los procesos estarán incrementalmente más vinculados, no sólo de manera secuencial, sino también ejecutándose en paralelo. Este tipo de vínculo paralelo entre los procesos crea lo que Perrow (1984) define como complejidad interactiva (en contraposición a las interacciones lineales) y que él considera como la fuente principal de imprevisibilidad y falta de fiabilidad de los sistemas tecnológicos.

    La complejidad apenas se menciona en los escritos de Beck. Sin embargo, su teoría muy bien puede ser vista como una teoría de la complejidad, porque lo que está haciendo más importantes los riesgos en nuestro mundo es precisamente su creciente complejidad - una complejidad que se crea a través de la investigación científica y el desarrollo de soluciones tecnológicas cada vez más sofisticadas. Y el núcleo dinámico de este complejo mundo es la propagación de los efectos secundarios. Beck pone de relieve un patrón particular de cómo los efectos secundarios a menudo se propagan. No sólo con la creación de una cadena de efectos secundarios (efecto dominó), sino que cada vez más a menudo forma efectos bumerán - se regresa al lugar del acto original que disparó toda la evolución que se estaba llevando a cabo y causa que el resultado sea más o menos el contrario de lo que pretendía el actor. Esto es lo que Beck llama la reflexividad. Lo que se encuentra como corazón del libro es la medida en que tales procesos reflexivos, que son auto-destructivos, se crean mediante la integración de soluciones de TIC.


    Ilustración gráfica del efecto dominó
    El libro complementa y compara la teoría de Beck con algunas otras. Esto incluye las teorías de las Ciencias de la Complejidad. Los efectos secundarios son también el centro de estas teorías. Sin embargo, sus autores y partidarios se han centrado en fenómenos diferentes a los de Beck - en particular en las ciencias naturales y la economía (normalización), y han puesto de manifiesto otros patrones creados a través de la propagación de los efectos secundarios. En lugar de los procesos auto-destructivos, se han centrado en los auto-reforzantes. Sin embargo, los procesos reflexivos, que se presentan en el libro son, al mismo tiempo, auto-reforzantes. Esto ocurre porque los procesos que tienen por objeto controlar la complejidad logran lo contrario, porque el control trata de ser alcanzado de maneras que aumentan la complejidad. La complejidad se inicia y se convierte en auto-reforzante.


    Referencias mencionadas en los parágrafos seleccionados:

    Beck, U. (1986), Risk Society: Towards Another Modernity, London: Routledge.
    Beck, U., A. Giddens and S. Lash (1994), Reflexive Modernization, Cambridge: Polity Press.
    Schneberger, S.L. and E.R. McLean (2003), ‘The complexity cross: implications for practice’, Communications of the ACM, 46(9), September, pp. 216–25.

    Basado en ICT, Risk and Complexity. HASETH, Ole y CIBORRA, Claudio (editores) Cornwall, Gran Bretaña. 2007. Edward Elgar Publishing.

    TIC, riesgo y complejidad. (1)

    Portada del libro ICT, riesgo y complejidad
    A continuación presento una selección de parágrafos del prefacio del Libro “ICT, risk and complexity” con Ole Hanseth y Claudio Ciborra como editores del mismo. En la traducción mantuve la difícil redacción dada por Ole Hanseth, siendo que su lengua materna es el noruego.

    TIC, Riesgo y Complejidad.

    Las tecnologías de información y comunicaciones (TIC) han estado estrechamente relacionadas con el riesgo a lo largo de su historia. Por un lado, las TIC son esencialmente una tecnología de control. Es una tecnología que nos ayuda a predecir mejor los complejos procesos de control de la naturaleza (el desarrollo de nuevas drogas, control de plantas de producción de energía nuclear, pronóstico del clima, etc...), la sociedad (sistemas de control de producción, herramientas para el control de proyectos, etc..), y otras tecnologías (mísiles balísticos intercontinentales, plantas químicas, etc...). Esto también incluye varias herramientas para la predicción, cálculo y administración del riesgo. Pero también hemos experimentado que las soluciones TIC tienen sus propios riesgos – riesgos relacionados con proyectos de TIC, así como fallas de los sistemas. Y toda una serie de técnicas e instrumentos relacionados con la conformación de soluciones TIC han sido desarrollados para ayudar a los directores de proyectos de control de riesgos, así como para hacerlas confiables mediante la minimización de los riesgos por fallas de los sistemas.

    A pesar de toda la investigación acerca de los riesgos de las TIC y la creciente sofisticación de las herramientas y técnicas desarrolladas, aún prevalecen los riesgos de las TIC. De hecho, hay indicios de que se están incrementando más que disminuyendo. Esta aparente paradoja es lo que motivó el libro.

    Neurona activaEl centro de la argumentación del libro “Teoría de la Sociedad del Riesgo” de Ulrich Beck (1986) es el supuesto que nuestra sociedad se está volviendo mas compleja a través del desarrollo y la utilización de mayor cantidad de formas de organización y tecnologías que son esenciales en los procesos de globalización en marcha. Este complejo mundo, todavía de acuerdo a Beck (y Giddens), se está volviendo crecientemente más impredecible y en consecuencia, más crecientemente inmanejable y descontrolado. Las TIC se están volviendo incrementalmente parte central de virtualmente todas las tecnologías. Al mismo tiempo, las TIC en general, e Internet y las aplicaciones construidas sobre ésta, en particular, son fundamentales en la globalización en marcha. En consecuencia, las TIC deben ser centrales en la creación de la Sociedad del Riesgo. Así que, adoptando la visión de Beck, podemos decir que las TIC han (posiblemente) cambiado desde la tecnología del control hacia la del riesgo, es decir, una tecnología que genera mayores riesgos que aquellos que nos ayuda a controlar y administrar.

    La British Computer Society (BCS) y la Real Academia de Ingeniería (RAE), publicó en abril de 2004 un informe sobre el estado de la investigación y la práctica de las técnicas en Ingeniería de Software (IS) y el Diseño de Sistemas de Información (DSI) en el Reino Unido, que se llamaba "El reto de los proyectos complejos de TI (BSC / RAE, 2004). El informe BCS / RAE considera el crecimiento de la complejidad como consecuencia del crecimiento de la potencia del cálculo y del desarrollo de las tecnologías de la comunicación. El crecimiento en la potencia del cálculo ha permitido a nuestros ordenadores ejecutar programas más complejos, y en consecuencia, hemos desarrollado software más complejo. El desarrollo de las tecnologías de la comunicación nos ha permitido integrar las complejas piezas de software en todos los equipos.

    El informe también concluyó que la alta tasa de fracaso fue el resultado del hecho de que la complejidad de las soluciones de TIC ha crecido rápidamente y que las actuales metodologías de IS-DSI no lo abordan adecuadamente. El informe concluye, asimismo, que las metodologías existentes se desarrollaron en un momento en que la complejidad se encontraba en un nivel mucho más bajo, que estas metodologías no se han ampliado para contemplar la complejidad (véase, por ejemplo, Fitzgerald, 2000), y, por último, que no se han desarrollado nuevas metodologías para abordar la complejidad creciente. De ahí la conclusión de que la complejidad de la TI es el tema sobre el que se necesita investigación básica. Es necesario entonces, según el informe, en primer lugar, entender esta complejidad y luego desarrollar nuevas metodologías de gestión de riesgos que nos permitirán controlar dicha complejidad.

    También consideramos estos dos factores como causas de la creciente complejidad. Sin embargo, nuestra opinión sobre las fuentes de la incremental complejidad de las TIC es ligeramente diferente. Vemos a la integración como la fuente principal. Y no vemos a las TIC como a una tecnología purificada. La complejidad de las TIC ha aumentado el número de componentes y su integración ha aumentado. Pero igual de importante, la complejidad también ha aumentado debido a una mayor integración entre los componentes de las TIC y las organizaciones y las prácticas de uso de la tecnología. Vamos a explicar en detalle este argumento un poco más.

    Al igual que se ha incrementado la potencia de cálculo, ha ido creciendo el número de aplicaciones en uso en cualquier organización. Estas aplicaciones, o sistemas de información (SI), apoyan un número creciente de áreas de aplicación. Esto implica que el número de tipos de sistemas de información y de áreas de uso ha crecido también. Paralelamente las plataformas o infraestructuras en que se están ejecutando estas aplicaciones se han vuelto más sofisticadas; el número de componentes, así como los tipos de componentes, han crecido. Todos estos componentes están relacionados de varias maneras. Las aplicaciones se han integrado unas con otras incrementalmente. Lo mismo ha ocurrido con las plataformas. Y la evolución de las tecnologías de la comunicación ha permitido el desarrollo de diversos tipos de nuevas aplicaciones, pero primero que todo han dado lugar a una integración de plataformas y aplicaciones a través de las fronteras organizativas y geográficas. Esto, nuevamente, ha dado lugar a la integración (es decir, un número creciente de conexiones) entre las organizaciones y sus rutinas, y entre sus sistemas de información. Con el tiempo el uso de cada uno de los sistemas de información crece (en parte en relación directa al número de usuarios, en parte indirectamente a través de la integración con otros sistemas de información). Esto significa que el número de enlaces, y los tipos de vínculos, entre los sistemas técnicos y de los interlocutores sociales/organizacionales también crecen. Y cuando los sistemas de información se han integrado a través de las fronteras de la organización, se establecen vínculos entre las rutinas y las prácticas en una organización y los sistemas de información y las plataformas del otro. Y, por último, de acuerdo con la hipótesis aparentemente compartida por todos, todo - en particular las organizaciones de TI y de negocios - está cambiando a una velocidad cada vez más alta. En resumen, esto significa que debe ser bastante obvio que la complejidad del desarrollo y el uso ha aumentado considerablemente.


    Referencias mencionadas en los parágrafos seleccionados:

    BCS/RAE (2004), ‘The challenges of complex IT projects’, British Computer Society and Royal Academy on Engineering Report, www.bcs.org/ NR/rdonlyres/3B36137E-C5FE-487B-A18B-4D/281D88EF7/0/complexity.pdf, accessed 31 August 2005.
    Beck, U. (1986), Risk Society: Towards Another Modernity, London: Routledge.
    Beck, U., A. Giddens and S. Lash (1994), Reflexive Modernization, Cambridge: Polity Press.

    Basado en ICT, Risk and Complexity. HASETH, Ole y CIBORRA, Claudio (editores) Cornwall, Gran Bretaña. 2007. Edward Elgar Publishing.

    martes, 17 de marzo de 2009

    Directorio de establecimientos. (II)

    El directorio de establecimientos proporciona el universo de establecimientos del sector educativo. Esta entrada es la segunda. La primera se encuentra aquí.

    Para 1995 me había vuelto en experto en calidad de los datos, pero denoté que en el término de un año escolar podían cambiar mucho los datos de un directorio de establecimientos (de hecho, unos años más tarde pude cuantificar que podían cambiar hasta el 50% de los registros al semestre!), desactualizándolo si no se introducían cambios en los flujos de la información. Se inició mi travesía por el diseño de sistemas de información.

    Me fueron necesarios cerca de seis meses en documentar los errores de calidad en los datos históricos del estudio censal del DANE, de nuevo financiado por el Departamento Nacional de Planeación, para poder argumentar y presionar cambios en dicho estudio. Entre ellos se presionó para un proceso de asignación de código DANE más ágil, y cambios en el proceso de reporte de novedades del directorio de establecimientos. Todo ello se realizó de manera paralela a la discusión de la actualización de los formularios a las nuevas realidades y responsabilidades de la descentralización. Abandoné mis compromisos con el tema desde fines del año 1996.

    Cuando en el año 1998 fui el responsable de la recolección estadística en el Distrito Capital, tuve la oportunidad de implementar un proceso de reporte de novedades del directorio y de diseñar todo el proceso de verificación de la calidad de la información en el momento de recibo de los formularios. El DANE, que no contaba con una decidida colaboración por parte de las secretarías de educación, realizaba la depuración en sus oficinas luego de seis meses de haber recolectado los datos.

    El proceso del Directorio en el Distrito presentó graves problemas por cuanto nadie era doliente del mismo. La oficina de sistemas no entendía qué de importante podía tener un directorio de establecimientos y no apoyaba el proceso, y las diferentes dependencias preferían no verse constreñidas por un procedimiento de actualización de sus directorios, sobre todo por la falta de alfabetización informática de los funcionarios. De nuevo el factor humano era obstáculo para la implementación de un sistema de información.

    A inicios del año 2001 tenía bajo control el directorio de establecimientos del Distrito Capital. Las directivas de la secretaría de educación entendían que la única manera de disminuir su nivel de error era publicándolo para que los propios establecimientos solicitaran la corrección. Se publicó el de establecimientos oficiales pero para aquella época esos ya no eran problema. Los establecimientos privados eran los que no estaban bajo control. Las directivas solicitaron que como requisito previo para su publicación se consultara a las asociaciones de colegios privados con el objeto de que no se sintieran vulnerados. Problema aparentemente más político que real. El caso es que dichas asociaciones solicitaron la revisión de los datos por parte de ellos antes de su publicación. Los datos no les concordaban, en gran parte porque sus propios directorios de afiliados carecían de actualización. Pasaron los meses y no había decisión al respecto. Nunca se publicó. Ni chance de que se hiciera de manera electrónica en la página WEB de la Secretaría de Educación.

    foto establecimiento educativo de Soledad, AtlánticoLa frustración no era esa, sino la incapacidad de los propios funcionarios del sector de comprender que un directorio de establecimientos es la piedra angular de la construcción de cualquier sistema de información integrado.

    Durante los años que estuve en la Secretaría de Educación el único que me apoyó la construcción y mantenimiento del adoptado directorio de establecimientos, el cual era por supuesto fundamental para mis labores estadísticas, fue el encargado de la nómina docente. Le era un dolor de cabeza asignar docentes a establecimientos educativos inexistentes, o que no estaban ubicados en dónde le indicaba la bases de datos o que no contaban con los niveles de educación para los cuales estaba capacitado el docente.

    Para el año 2001, con motivo de mi trabajo como consultor, tuve oportunidad de trabajar en una propuesta de mejoramiento de la calidad de la información y del sistema de información del sector educativo. En aquella época había un contratista del Ministerio de Educación que había adoptado el directorio y luchaba incesantemente para tener un buen directorio de establecimientos. Todavía nadie apoyaba el tema.

    En el año 2002 se posesionó una nueva administración. Se hizo una revolución en los sistemas de información, pero no fue sino hasta el año 2004 que el responsable entendió que era necesario tener un directorio de establecimientos como elemento integrador de los sistemas de información. Pero un tema sin doliente ocasiona que la desactualización sea constante, causa básica de la imposibilidad de crear indicadores (información). Un resultado es que hacia el 2006 todavía no había credibilidad en la información del Ministerio de Educación.

    Continúa ...

    Directorio de establecimientos. (I)

    Como ejemplo de complejidad y su origen en los aspectos sociales de los sistemas de información, narro a continuación mi punto de vista sobre la historia que he vivido en el sector educativo con respecto al más básico de los temas: el Directorio de Establecimientos Educativos de la educación básica:

    Desde que inicié mi desempeño laboral en el sector educativo, hacia el año de 1993, se ha estado luchando para la construcción de un Directorio de Establecimientos de la Educación básica y media que contenga los datos mínimos de identificación, ubicación y caracterización de éstos.

    Alfredo Sarmiento Gómez publicó un grueso volúmen cuando trabajó como asesor del Ministerio de Educación en los años ochenta. Pero pasado poco tiempo los datos se desactualizaron y el advenimiento de los computadores personales con la nueva década permitió pensar en armar uno electrónico.

    El Ministerio de Educación no apoyó el nuevo proyecto por cuanto consideraban que los varios que poseían eran adecuados a sus propósitos. El trabajo lo acometió el Departamento Nacional de Planeación por medio de la Misión de Apoyo a la Descentralización y Focalización de los Servicios Sociales, hacia el año 1994. Tuve la oportunidad de encargarme del proyecto como actividad paralela a mis demás funciones.

    Por supuesto, la primera actividad era comparar los diversos directorios existentes. Cada dependencia del Ministerio de Educación tenía el suyo y aducían tener el más completo. La primera dificultad para compararlos era que no contaban con una identificación única que permitiera cruzarlos. Algunos contaban parcialmente con un campo que correspondía al código que el Departamento Nacional de Estadística (DANE) le asignaba dentro del "estudio censal anual del sector educativo de la educación básica y media formal". Era lógico tomar dicho dato como identificador inequívoco. Por Ley todo establecimiento debía reportar las estadísticas de su establecimiento.

    Del cruce se denotó que establecimientos con el mismo nombre y dirección contaban con identificadores diferentes y que establecimientos con diferente nombre compartían la misma identificación. Se trataba correspondientemente de mala digitación de la identificación y de duplicación de datos.

    Tras una lucha de varios meses para que el DANE revelara la fórmula para determinar el dígito final del código, que servía para comprobar la correcta digitación, se determinaron las identificaciones incorrectas.

    Paralelamente se trabajó en explicar por qué varios establecimientos tenían el mismo identificador. Se trataba de cambios de nombre que algunas dependencias actualizaban por haber tenido comunicación con dicho establecimiento por causa de algún trámite administrativo, y que las demás dependencias no podían haber sabido, debido a la inexistencia de procedimientos para dicha actualización.

    foto de establecimiento educativo de BogotáLas direcciones también cambiaban. Podía ser por traslado de infraestructura física, por cambio de la nomenclatura en la ciudad o por ser establecimientos educativos de cierto tamaño que contaban con varias sedes o acceso por varias puertas. Y por supuesto, por problemas de digitación y estandarización.

    Escribí una rutina computacional que estandarizara los nombres de los establecimientos educativos basado en las recomendaciones del DANE y de las direcciones basados en normas establecidas por la Secretaría de Hacienda del Distrito Capital para propósitos catastrales. A lo largo de varios meses se fue alimentando la base de datos de conversión a medida identificaba nuevas variantes de direcciones, sobre todo rurales, y nuevos tipos de errores de digitación. Se procedió a estandarizar también la manera como se presentaban los teléfonos. Años después, cuando me encargué del mismo problema en la Secretaría de Educación del Distrito Capital, tuve la oportunidad de solicitar que pusieran como dirección la que correspondía a la de entrega de correspondencia, para evitar que cada vez colocaran una puerta de acceso diferente.

    También era claro que muchos establecimientos no tenían asignado código por parte del DANE. Se trataba de casos que estaban en proceso de aprobación por parte de las secretarías departamentales (para aquella época ya había empezado el proceso de descentralización de la educación en Colombia), omisos estadísticos y algunos que habiéndose reportado aún no tenían asignado uno por causa de un proceso que tomaba poco más de un año. Determiné una manera de asignar un código de identificación provisional con la misma estructura del vigente. Eso creó malestar en el DANE, pero no dieron alternativa diferente para resolver la problemática.

    Con base en el ejercicio se hizo evidente que nadie tenía un directorio actualizado ni completo, que no era dable pensar por el momento en un proceso de georeferenciación ni en estudios que cruzaran información proveniente de diversas fuentes de información por carecerse de un identificador único que permitiera relacionar de manera confiable las diferentes variables.

    El proceso generó cierta rivalidad entre el Departamento Nacional de Planeación y el Ministerio de Educación Nacional. Injustificable, pero muy humano.

    Por el momento se había lidiado con cuatro variables: identificación, nombre, dirección y teléfono. Para incorporar si se trataba de un establecimiento administrado por el estado (oficial), si estaba ubicado en zona urbana o rural y los niveles educativos que ofrecía, se cruzó la información con la provista por el estudio censal del DANE ya mencionado (en realidad semi censal con sesgo desconocido).

    Con el tiempo, en el Distrito Capital fue necesario añadir si era oficial financiado por el Distrito u oficial financiado por otra entidad de carácter estatal ya que entidades como la Contraloría o el Banco de la República lo hacían. Respecto a los niveles educativos se requirió saber si ofrecían todos los grados o parcial con el objeto de apoyar el proceso de reordenamiento institucional. Este era un concepto nuevo. Con la ampliación de la cobertura ya no se esperaba que hubiera instituciones que ofrecieran sólo los grados de primaria o sólo los de secundaria, sino todos los grados.

    También se añadió el nombre del rector.

    El mismo proceso de reordenamiento llevó a procesos de fusión de establecimientos pequeños y que sólo ofrecían primaria con otros de mayor tamaño y que ofrecían todos los niveles educativos. Esto último obligó a establecer un listado de las sedes de cada establecimiento con su dirección, teléfono y características. Cada vez era más complejo.

    Pero regresando a la época del Departamento Nacional de Planeación, hacia el final del año 1995 también era necesario caracterizar de algún modo el tamaño del establecimiento educativo. Procedí a realizar histogramas de los tamaños de los establecimientos y denotar que había unas tipologías que relacionaban el tamaño con los niveles ofrecidos. A los encargados de calcular el costo per cápita de educar a un niño o joven les pareció interesante mi ejercicio de clasificación y lo adoptaron. De ahí surgieron las "tipologías" que luego han hecho carrera en relación a la distribución de los recursos del Sistema General de Participaciones de las entidades territoriales en los Ingresos Corrientes de la Nación.

    Poco a poco se fueron introduciendo más variables en el directorio de establecimientos, lo cual era problemático ya que cada nueva variable hacía crecer geométricamente el número de registros con error a causa del crecimiento exponencial del número de fuentes de error. El problema no era el trabajo adicional de verificación, sino que el directorio era la base para crear reputación de confiabilidad de la información estadística y como ya dije, entre más variables, mayor proporción de errores.

    Un tema sencillo y fundamental como saber cuántos establecimientos educativos se tenían y dónde estaban se había vuelto muy complejo en los términos que denota la definición que adopto en la entrada correspondiente.

    (Continúa...)

    Heurística, carpintería e improvisación

    En el tercer capítulo de "Los laberintos de la Información: desafiando la sabiduría de los sistemas", Claudio Ciborra nos muestra una reivindicación de actitudes consideradas poco ortodoxas, pero que son necesarias para llegar a crear una cultura verdaderamente innovativa en una organización.

    El título del capítulo "Bricolage" hace referencia a la capacidad de develar nuevos usos y aplicaciones de la tecnología al alcance.

    E aquí un resumen de su exposición:

    Bricolage

    Las metodologías que dictan cómo realizar un plan estratégico de sistemas de información nos dicen:

  • Identifique los factores clave de éxito y competencias distintivas.

  • Por medio de un estudio del entorno identifique sus oportunidades y amenazas, fortalezas y debilidades.

  • Luego defina un conjunto de alternativas de estrategia competitiva.

  • Seleccione una y planéela en detalle.

  • Estas metodologías separan la fase de planeación de la de implementación.

    Son metodologías conscientes y analíticas. Orientadas al control del proceso y de arriba hacia abajo. La metodología debe ser lo más simple posible y estructurada. Analizada con métodos como la cadena de valor, las cinco fuerzas, el diagrama en diamante, la matriz BCG, y relacionadas.

    La estructura para llevar a cabo el proyecto es la fase subsiguiente a la planeación y previa a la implementación.

    Mintzberg en 1990 criticó estas metodologías básicamente en tres puntos:

  • El proceso presume que el entorno es predecible y que los eventos se podrán desarrollar en secuencia: formulación, diseño e implementación. La realidad del día a día nos muestra que en el camino surgen eventos imprevistos que obligan a reformular los planes y el diseño, amenazando la poca flexibilidad de las diferentes metodologías y desajustando el acoplamiento planeado entre la organización y el entorno analizado.

  • El proceso separa la formulación estratégica de la estructura organizacional, bajo el precepto de que es necesario que la organización se adapte a la nueva formulación estratégica. No obstante existe una cultura organizacional explícita e implícita con formas rutinarias de actuar, pensar y comportarse, y puede haber en la realidad direccionamientos desengranados e inclusive contradictorios, todo lo cual influye en el moldeamiento de la formulación estratégica original.

  • Se mira el proceso como intencional y controlado, no obstante la formulación estratégica encuentra en su camino sorpresas, lo cual lleva a cambios radicales en las preferencias e incluso en la identidad de los tomadores de decisiones, a la vez que círculos viciosos paralizantes que pueden bloquear la implementación de la estrategia. De esta manera, debe verse el proceso como de aprendizaje organizacional, con heurísticas, cambio de órdenes y reconstrucción continua de las fortalezas y debilidades, oportunidades y amenazas.

  • Los modelos de competencia, extractados de la rama de la microeconomía denominada “organización industrial”, nos muestran varios:

  • Los ingresos de las compañías provienen de la estructura del mercado en que compiten. La ventaja competitiva proviene de la habilidad para crear barreras de entrada, diferenciación del producto, relaciones con los proveedores, etc...

  • En la competencia monopolística las firmas se consideran heterogéneas en cuyo caso se compite en función a su know-how, sus recurso y sus activos, su reputación, su capacidad de conformación de equipos de trabajo, su cultura organizacional y otros activos invisibles. En definitiva, compiten mediante el desarrollo de fortalezas y habilidades únicas y defendiéndose de la imitación por parte de otras firmas.

  • Una tercera perspectiva es la de las firmas innovadoras en productos, mercados, organización y/o tecnología. La innovación proviene más de una “destrucción creativa” que de un proceso planeado. Es decir, habilidades para aprender, adivinar y tener suerte como factores clave competitivos..

  • La primera perspectiva parte de un análisis del entorno y una controlada planeación de los pasos a seguir para mantener la competitividad. La segunda y tercera perspectiva parten del aprovechamiento de habilidades únicas e intangibles.

    El capítulo expone renombrados casos reales (ASAP de Baxter, SABRE de American Airlines, el VideoText Teletel francés e Internet) en dónde se evidencia la discrepancia entre lo planeado y la realidad implementada en donde las sorpresas que surgen en el camino, la aparición de oportunidades, la prueba y el error, e incluso la negligencia, jugaron un papel estratégico en la conformación de los sistemas, si bien sólo fueron evidentes tras haber finalizado.

    El punto es que la construcción de Sistemas de Información no crea ventajas competitivas, simplemente impide disminuir la usual tasa de retorno sobre la inversión. Tampoco crean barreras de entrada ya que son fácilmente imitados. El punto es que la construcción de sistemas de información únicos que proporcionen ventaja competitiva por un periodo mayor al corto plazo parece estar más asociado a procesos de innovación.

    La innovación para el desarrollo de sistemas de información realmente estratégicos surge cuando se da la habilidad para reconocer en el uso características idiosincrásicas que fueron ignoradas, subestimadas o sencillamente no planeadas.

    Hay dos caminos para la innovación. El primero es apoyarse en la capacidad propia y afincarse en comportamientos de rutina hasta que se extiendan a la nueva tarea: el aprender haciendo. Cuando no se posee el nivel de competencia adecuado para enfrentar la compleja visión de un nuevo proyecto, acceder a información externa y comprometerse a experimentar puede ser causa de errores y divergencias respecto a una ejecución óptima. Esta opción consiste en motivar a la parte operativa de la organización a que combine y aplique los diferentes métodos y/o herramientas que manejan para llegar a nuevas soluciones. El valor de mecaniquear es que mantiene el desarrollo de los sistemas cercanos a las competencias propias de la institución y a su continua adaptación a las prácticas locales.

    La segunda ruta a la innovación es atacar a la competencia en su médula, permitiendo que surjan nuevas competencias en la propia organización que reemplacen a las existentes. Se trata de un proceso de cambio radical que se orienta a cambiar el contexto cognitivo y organizacional en que se sustentan las prácticas, rutinas y habilidades de la organización.

    Desde este segundo punto de vista, se compite más que con estudios de mercado, análisis de sistemas, especificación de requerimientos y acomodación de los intereses. Lo que se realiza es intervenir en las situaciones y diseñar en el camino, de tal modo que los participantes en el proyecto son libres de diseñar nuevas estrategias y de mirar el contexto organizacional de maneras totalmente novedosas. La nueva información estratégica y sus correspondiente sistema de información se basa en esa nueva manera de modelar el mundo, lo que hará que el sistema construido sea único y difícil de imitar.

    Ambos caminos se acercan al área gris de las prácticas en el trabajo, las creencias, los estados de ánimo, los valores, las rutinas y la cultura en la que yace cada organización.

    Por debajo del reino de los métodos, procedimientos y modos sistemáticos de organizarse y ejecutar el trabajo de acuerdo con la racionalidad, la planeación y el control, llegamos al turbio mundo de la informalidad, lo mundano y la práctica laboral diaria. Es el reino del hackeador, la inteligencia práctica, la filigrana de los porcedimientos proscritos, los atajos y la transgresión del orden organizacional establecido incrustados en medio de las rutinas sistematizadas y formalizadas.

    Hackear, mecaniquear e improvisar son apelativos equivalentes si bien de diferente matiz para denominar este tipo de actuación. Hackear tiene asociado una divergencia con las preplaneadas y formalizadas formas de operar que lleva al encuentro sorpresivo de alternativas valiosas y no esperadas de actuación y que también están al filo entre el comportamiento altamente competente y la incompetencia. Llamar a alguien improvisador o mecaniquero puede ser insultante y llamarlo hacker es asociarlo con comportamientos criminales. Dan cuenta de que dichos comportamientos se consideran marginales. Pero estar al margen de la organización proporciona a los improvisadores un elemento de libertad y de juego acerca de las alternativas que tiene para hacer uso de los recursos que tienen a su disposición. Le da al individuo un cariz de ingenuidad, experiencia y habilidad por encima del sistema organizacional. Parecen tener un modus operandi típico: equipos pequeños y pequeñas intervenciones que conducen sobre la marcha a consecuencias trancendentales si son realizadas hábilmente atendiendo al contexto local. En sistemas el hacker diseña e implementa un programa que realiza una función útil haciendo uso de la tecnología de una manera original, no ortodoxa y usualmente juguetona. El programa que realiza encaja dentro de un sistema más grande. Lo realiza usando la tecnología para algo para lo que supuestamente no fue desarrollada. De manera ingeniosa, mediante iteraciones, reuso o reinterpretación del ambiente de programación implementa de manera novedosa una nueva solución. El sistema operativo Linux fue desarrollado de este modo. El hacker suele pertenecer a una comunidad de hackers en el que el papel de analista, diseñador o desarrollador se intercambian sin obedecer a rígidas estructuras, reemplazándolas por un enfoque distribuido y evolutivo.

    Bricolage significa mecaniquear (tinkering) haciendo uso de los recursos al alcance. Los recursos se convierten en las herramientas disponibles y delimitan la heurística para resolver un problema. Se trata de mover el mundo de acuerdo a como lo determine la situación presente. Con el bricolage las prácticas y las situaciones develan nuevos usos y aplicaciones de la tecnología al alcance.

    La improvisación enfatiza en lo repentino, extemporáneo e impredecible del comportamiento humano. La improvisación competente hace referencia a la capacidad de intervenir en una situación en la que hay que decidir sobre algo inesperado rápidamente.

    Hackear, mecaniquear e improvisar explotan en toda su potencia las herramientas y la situación presente allí donde los modos de actuar preplaneados se ven derrotados o son menos efectivos por causa de las contingencias. Por definición son actividades altamente idiosincráticas y a menudo no visibles. Por ende son difíciles de imitar en contextos culturales diferentes de los que los vieron nacer.



    Bibliografía:

    CIBORRA, Claudio. The Labyrinths of Information: Challenging the Wisdom of Systems. Oxford University Press, 2002. Great Britain.