domingo, 24 de julio de 2016

MÉTODOS “I+D” DE LA INFORMÁTICA



Elaborado por: Pedro Gómez


            La informática es el estudio de la computación. La Informática es una ingeniería. La informática es la disciplina de los Sistemas de Información (SI). La informática se relaciona con diferentes ramas computacionales que evitan sus fronteras. La informática cuando evita referirse a los algoritmos, busca aquellos problemas resolubles computacionalmente,  lo cual obliga a estudiar la complejidad algorítmica. Mientras el interés responda a los SI, la preocupación principal son los aspectos organizacionales.  Los problemas categorizan las organizaciones. Los parámetros son la utilidad, la permeabilidad, la permanencia y la reusabilidad. Las características de la informática han contribuido a profundizar su crisis de identidad, sus limitaciones, los que constituye la rama de la informática en sí misma.           Heckhausen citado por Barchini (2005:2), señala siete criterios para clasificar una disciplina: dominio material, dominio de estudio, integración teórica, métodos, instrumentos de análisis, aplicaciones prácticas y contingencias históricas. De esos criterios, los importantes son los que determinan su carácter, madurez y autonomía. Este articulo trata de los métodos e investigación y desarrollo en informática, cuando estudia la informaron y diseña sistemas de información. Los amplios métodos de investigación de la informática nos permiten entender su complejidad. Dicho artículo comprende el marco del proyecto de investigación y desarrollo y las técnicas de la informática, y se organiza en: la evolución histórica, el rol de los métodos informáticos, y las conclusiones.


Evolución histórica
            La palabra "Informática" viene del francés "Informatique". Este término aceptado en Europa y Latinoamérica, no existía en inglés. Davis citado por Barchini (2005:2), determina que es "un campo para cualquier nombre" consideró que, en América del Norte, los términos SI y Sistema de Gestión de la Información son intercambiables en uso.  Dichos términos se refieren al sistema de información basado en la Tecnología de la Información. Antiguamente, el término Procesamiento de Datos se usaba para definir el uso del computador personal (PC) en las empresas.
            Con el tiempo, se define la informática como disciplina, se reemplazó "procesamiento de datos" por "tecnología de la información”, desarrollando una comprensión mayor del PC en las organizaciones. El énfasis estaba en el producto de los SI, la información, llamado gestión de la información.
            Los cambios de término reflejan el cambio de las prácticas de la disciplina, surgió la separación de ambos términos y las operaciones a realizar con ellos; después, se usó la palabra Conocimiento para referirse al uso asociativo, funcional y explícito de la información. El cambio de énfasis entre datos, información y conocimiento no es casual, es el producto de la evolución de la informática. En los años siguientes, surge una fusión de tecnologías. El uso de la tecnología de información se extiende a las redes y los sistemas que conectan a la organización, sus proveedores y clientes, logrando mayor ventaja competitiva y eficacia.

Visión Actual
            La informática como campo de estudio existe con múltiples nombres, ello refleja el desarrollo de la disciplina. La informática abarca la actividad como el producto, que son consecuencias de la necesidad social. La concepción de la informática social tiene mayor aceptación e identifica las investigaciones sociales de la computación. La informática analiza problemas relacionados con la adquisición, procesamiento y transferencia de información. Un SI se define como el conjunto de procesos y componentes que permiten capturar, procesar, almacenar y distribuir información para la toma de decisiones; también, permiten analizar problemas e innovar, lo cual hace a los SI, un aparato coordinador de una organización. Los SI deben ser eficaces, pertinentes y relevantes.
La informática estudia los fenómenos de los objetos por medio de métodos que permiten investigar sus relaciones y teorías, donde la tecnología adopta una óptica operativa.

El rol de los métodos
            El objetivo de la ciencia es adquirir conocimientos. La ciencia fáctica explica los fenómenos de la realidad del objeto de estudio. Las ciencias formales desarrollan los sistemas abstractos del pensamiento. Bunge, cataloga las características del conocimiento científico en construcción artificial de la mente humana. Lo importante de este conocimiento es un carácter fáctico, es decir busca dar explicaciones usando métodos, siendo este un procedimiento regular. Si el método es un camino, el método científico es el camino al conocimiento científico. Las herramientas tecnológicas son el producto del conocimiento científico. Finalmente, la informática evoluciona por los cambios paradigmáticos, que surjan de la aplicación de la tecnología.

Los métodos de investigación
            Los métodos de investigación se clasifican con distintos criterios, que aún no poseen un consenso único. La clasificación presentada responde a la postura del informático al resolver problemas. Hay dos clases de métodos: los lógicos y los empíricos. Los lógicos se basan en el pensamiento, la deducción, el análisis y la síntesis. Los empíricos usan el conocimiento directo y la experiencia. Los métodos lógicos se dividen en deductivos e inductivos. Los deductivos son precisos y rigurosos. Extraen conclusiones de los datos, parte de lo general a lo particular. Los inductivos van del efecto a la causa, y se usan en investigaciones cualitativas mientras que los deductivos se vinculan a las cualitativas. Los métodos empíricos se dividen en cuantitativos, cualitativos y mixtos. El cuantitativo estudia la relación de variables cuantificadas. El cualitativo el contexto situacional y los mixtos combinan lo cuantitativo con lo cualitativo.

Conclusiones
            Los métodos de I+D divididos según su clasificación, presentan un panorama de los métodos que la informática usa para: abordar sus objetos de estudios de los SI, investigar los fenómenos del mundo real y las problemáticas del mundo virtual; así como, explicar y justificar los desarrollos de los SI.
Los métodos de clasificación no son mutuamente excluyentes, y por ende no se usan métodos puros. Los objetivos del investigador y el problema en si determinan los métodos a utilizar. La variedad de métodos de I+D que la informática usa nos lleva afirmar que es multifacética por:
            *Su génesis y evolución histórica
            *Sus características disciplinares
            *La variedad de fenómenos interdisciplinarios que estudia.









Trabajos citados
Barchini, G. E. (Agosto de 2005). Metodos "I+D" de la Infrmatica. Santiago del Estero, Argentina.

No hay comentarios:

Publicar un comentario