Elaborado por: Pedro Gómez
La informática es el estudio de la
computación. La Informática es una ingeniería. La informática es la disciplina
de los Sistemas de Información (SI). La informática se relaciona con diferentes
ramas computacionales que evitan sus fronteras. La informática cuando evita referirse
a los algoritmos, busca aquellos problemas resolubles computacionalmente, lo cual obliga a estudiar la complejidad
algorítmica. Mientras el interés responda a los SI, la preocupación principal
son los aspectos organizacionales. Los
problemas categorizan las organizaciones. Los parámetros son la utilidad, la
permeabilidad, la permanencia y la reusabilidad. Las características de la
informática han contribuido a profundizar su crisis de identidad, sus
limitaciones, los que constituye la rama de la informática en sí misma. Heckhausen citado por Barchini (2005:2),
señala siete criterios para clasificar una disciplina: dominio material,
dominio de estudio, integración teórica, métodos, instrumentos de análisis,
aplicaciones prácticas y contingencias históricas. De esos criterios, los
importantes son los que determinan su carácter, madurez y autonomía. Este
articulo trata de los métodos e investigación y desarrollo en informática,
cuando estudia la informaron y diseña sistemas de información. Los amplios
métodos de investigación de la informática nos permiten entender su
complejidad. Dicho artículo comprende el marco del proyecto de investigación y
desarrollo y las técnicas de la informática, y se organiza en: la evolución
histórica, el rol de los métodos informáticos, y las conclusiones.
Evolución histórica
La palabra "Informática" viene del francés
"Informatique". Este término aceptado en Europa y Latinoamérica, no
existía en inglés. Davis citado por Barchini (2005:2), determina que es
"un campo para cualquier nombre" consideró que, en América del Norte,
los términos SI y Sistema de Gestión de la Información son intercambiables en
uso. Dichos términos se refieren al
sistema de información basado en la Tecnología de la Información. Antiguamente,
el término Procesamiento de Datos se usaba para definir el uso del computador
personal (PC) en las empresas.
Con el tiempo, se define la
informática como disciplina, se reemplazó "procesamiento de datos"
por "tecnología de la información”, desarrollando una comprensión mayor
del PC en las organizaciones. El énfasis estaba en el producto de los SI, la
información, llamado gestión de la información.
Los cambios de término reflejan el
cambio de las prácticas de la disciplina, surgió la separación de ambos
términos y las operaciones a realizar con ellos; después, se usó la palabra Conocimiento
para referirse al uso asociativo, funcional y explícito de la información. El
cambio de énfasis entre datos, información y conocimiento no es casual, es el
producto de la evolución de la informática. En los años siguientes, surge una
fusión de tecnologías. El uso de la tecnología de información se extiende a las
redes y los sistemas que conectan a la organización, sus proveedores y
clientes, logrando mayor ventaja competitiva y eficacia.
Visión Actual
La informática como campo de estudio existe con múltiples nombres, ello
refleja el desarrollo de la disciplina. La informática abarca la actividad como
el producto, que son consecuencias de la necesidad social. La concepción de la
informática social tiene mayor aceptación e identifica las investigaciones
sociales de la computación. La informática analiza problemas relacionados con
la adquisición, procesamiento y transferencia de información. Un SI se define
como el conjunto de procesos y componentes que permiten capturar, procesar,
almacenar y distribuir información para la toma de decisiones; también,
permiten analizar problemas e innovar, lo cual hace a los SI, un aparato
coordinador de una organización. Los SI deben ser eficaces, pertinentes y
relevantes.
La
informática estudia los fenómenos de los objetos por medio de métodos que
permiten investigar sus relaciones y teorías, donde la tecnología adopta una
óptica operativa.
El rol de los métodos
El objetivo de la ciencia es
adquirir conocimientos. La ciencia fáctica explica los fenómenos de la realidad
del objeto de estudio. Las ciencias formales desarrollan los sistemas abstractos
del pensamiento. Bunge, cataloga las características del conocimiento
científico en construcción artificial de la mente humana. Lo importante de este
conocimiento es un carácter fáctico, es decir busca dar explicaciones usando
métodos, siendo este un procedimiento regular. Si el método es un camino, el
método científico es el camino al conocimiento científico. Las herramientas
tecnológicas son el producto del conocimiento científico. Finalmente, la
informática evoluciona por los cambios paradigmáticos, que surjan de la
aplicación de la tecnología.
Los métodos de
investigación
Los métodos de investigación se
clasifican con distintos criterios, que aún no poseen un consenso único. La
clasificación presentada responde a la postura del informático al resolver
problemas. Hay dos clases de métodos: los lógicos y los empíricos. Los lógicos
se basan en el pensamiento, la deducción, el análisis y la síntesis. Los
empíricos usan el conocimiento directo y la experiencia. Los métodos lógicos se
dividen en deductivos e inductivos. Los deductivos son precisos y rigurosos.
Extraen conclusiones de los datos, parte de lo general a lo particular. Los
inductivos van del efecto a la causa, y se usan en investigaciones cualitativas
mientras que los deductivos se vinculan a las cualitativas. Los métodos
empíricos se dividen en cuantitativos, cualitativos y mixtos. El cuantitativo
estudia la relación de variables cuantificadas. El cualitativo el contexto
situacional y los mixtos combinan lo cuantitativo con lo cualitativo.
Conclusiones
Los métodos de I+D divididos según
su clasificación, presentan un panorama de los métodos que la informática usa
para: abordar sus objetos de estudios de los SI, investigar los fenómenos del
mundo real y las problemáticas del mundo virtual; así como, explicar y
justificar los desarrollos de los SI.
Los
métodos de clasificación no son mutuamente excluyentes, y por ende no se usan métodos
puros. Los objetivos del investigador y el problema en si determinan los
métodos a utilizar. La variedad de métodos de I+D que la informática usa nos
lleva afirmar que es multifacética por:
*Su génesis y evolución histórica
*Sus características disciplinares
*La variedad de fenómenos
interdisciplinarios que estudia.
Trabajos
citados
Barchini,
G. E. (Agosto de 2005). Metodos "I+D" de la Infrmatica. Santiago del
Estero, Argentina.
No hay comentarios:
Publicar un comentario