Maricel

Wednesday, December 06, 2006

QUÉ ES LA NANOINFORMATICA?
I) Introducion:
1.- Definición: Donde la nanotecnología va tener más influencia es en el campo de la computación y comunicaciones debido en parte a que estos han sido los motores de su desarrollo.

Las cosas han cambiado mucho desde las primeras computadoras electrónicas. El ENIAC I fue desarrollado en la Universidad de Pennsylvania en 1945. Estaba compuesto por más de 70.000 resistencias, 18.000 válvulas y 10.000 condensadores; pesaba 30.000 Kilos y ocupaba 1.300 metros cuadrados.

Pero el descubrimiento del chip, a mediados de los años setenta, ha reducido, por suerte para todos, el tamaño de los ordenadores. El primer 486 utilizaba tecnología de una micra (millonésima parte de un metro). Hasta hace poco tiempo, los Pentium tradicionales utilizaban tecnología de 0.35 y 0.25 micras. Los modelos más modernos han reducido esta valor hasta 0.13 micras. El nanómetro marcará el límite de reducción a que podemos llegar cuando hablamos de objetos materiales, en este caso dispositivos computacionales.

La velocidad de los ordenadores y su capacidad de almacenamiento han sido las principales barreras en el desarrollo de la inteligencia artificial. Con la nanotecnología aparece la posibilidad de compactar la información hasta límites inimaginables y crear chips con memorias de un terabit por centímetro cuadrado. Un Terabit es la capacidad de la memoria humana, lo que quiere decir que los ordenadores del futuro podrán llegar a tener inteligencia propia, es decir, serán capaces de aprender, tomar decisiones y resolver problemas y situaciones "imprevistas", ya que con esta memoria se les podrá dotar de códigos extremadamente complejos. Según los expertos, esto se puede conseguir en un plazo de no más de cinco años. Lógicamente, con ordenadores tan pequeños, los dispositivos de uso también cambiarán. Al tiempo que evoluciona la tecnología de reconocimiento de voz y de escritura, se irán desarrollando otro tipo de "ordenadores personales" en miniatura, casi invisibles, insertados en objetos de uso común como un anillo, por ejemplo, o implantados en nuestro propio organismo en forma de lentillas o chips subcutáneos.

También es necesario fabricar otros conductores, porque los existentes no sirven. Los experimentos con nanotubos de carbón (milmillonésima parte de un metro) para la conducción de información entre las moléculas ya han dado resultados. IBM anunció que ha conseguido crear un circuito lógico de ordenador con una sóla molécula de carbono, una estructura con forma de cilindro 100.000 veces más fino que un cabello. Este proyecto permite introducir 10.000 transistores en el espacio que ocupa uno de silicio.

La posibilidad de desarrollar miniordenadores de cien a mil veces más potentes que los actuales podría suponer que éstos tuvieran inteligencia propia, lo que cambiaría los sistemas de comunicaciones. Por ejemplo, los datos podrían transmitirse con imágenes visuales mediante "displays" incorporados en forma de lentillas. La comunicación telefónica se realizaría por audioconferencias en 8 o 10 idiomas.

En un futuro no muy lejano, los PCs estarán compuestas, en lugar de transistores, por otros componentes como las moléculas, neuronas, bacterias u otros métodos de transmisión de información. Entre estos proyectos se encuentra el futuro ordenador "químico", desarrollado por científicos de Hewlett-Packard y de la Universidad de California (Los Ángeles). Los circuitos de este nuevo modelo son moléculas, lo que supone transistores con un tamaño millones de veces más pequeños que los actuales.
Esto es uno de los aspectos más interesantes ya que no sólo se podrá desarrollar máquinas mucho más pequeñas que una bacteria o una célula humana. Además, se puede empezar a tomar elementos del mundo biológico –por ejemplo, trocitos de ADN para procesadores de ordenadores–. Así, científicos del grupo de investigación Montemagno de la Universidad de Cornell han logrado unir ya elementos biológicos y mecánicos creando pequeños motores del tamaño de un virus. Aunque aún faltan muchas cosas por afinar, estos motores podrían trabajar en el interior de una célula humana. Así también en el mes de noviembre del 2001 científicos israelitas, presentaron una computadora con el ADN tan diminuta que un millón de ellas podría caber en un tubo de ensayo y realizar 1.000 millones de operaciones por segundo con un 99,8 por ciento de precisión. Es la primera máquina de computación programable de forma autónoma en la cual la entrada de datos, el software y las piezas están formados por biomoléculas. Los programas de la microscópica computadora están formados por moléculas de ADN que almacenan y procesan la información codificada en organismos vivos.

El proyecto de chip molecular sustituirá al silicio y a la óptica. Se prevé que se podrán fabricar computadoras del tamaño de una mota de polvo y miles de veces más potentes que los existentes. De momento, se ha conseguido simular el cambio de una molécula, mediante su rotura, pero falta crear moléculas que se curven sin romperse.
2.- Dispositivos nanoinformáticos:

Usando nanotubos semiconductores, investigadores de varias empresas y laboratorios han desarrollado circuitos de computación de funcionamiento lógico y transistores, las puertas electrónicas lógicas de que están compuestos los chips.

En agosto del año pasado, en lo que es considerado un paso fundamental hacia la computadora molecular, IBM mostró el primer circuito de ordenamiento lógico formado por nanotubos de carbono. Las computadoras moleculares basadas en estos circuitos tienen el potencial de ser mucho más pequeñas y rápidas que la actuales, además de consumir una cantidad considerablemente menor de energia.

En cuanto a los transistores, los Laboratorios Bell de Lucent Technologies mostraron en octubre del 2001 un transistor de escala molecular con la misma capacidad que el clásico transistor de silicio. Intel no ha mostrado ninguna investigación relacionada a los nanotubos, pero trabajando con silicio a escala nanométrica, la compañía hizo, también el año pasado, otro anuncio igualmente espectacular el transistor de silicio más rápido jamás producido, de apenas veinte nanómetros.

El transistor se enciende y se apaga -recordemos el 1 y el 0 del sistema binario, que forma la base de la informática- más de mil millones de veces por segundo, un 25% más veloz que los transistores más recientes. Para el 2007, Intel espera estar fabricando chips conteniendo mil millones de estos transistores, lo que le permitiría llegar a una velocidad de 20 Ghz. con la energía de un voltio.

En cuanto a memorias, IBM anunció hace apenas cinco meses que su proyecto de nombre código Millipede, que pretende crear capacidades mayores a las existentes, se basa en procesos de escala nanométrica. Este dispositivo de almacenamiento regrabable, de alta capacidad y densidad, trabaja en base a mil pequeñas agujas similares a las del microscopio AFM, con puntas capaces de tocar átomos individuales y escribir, leer y borrar así grandes cantidades de información en un espacio mínimo. De apenas nueve milímetros cuadrados, los investigadores de IBM estiman que en los próximos años, la tecnología Millipede puede superar la capacidad de la tecnología de memoria Flash en cinco veces o más.

Este tipo de desarrollos -tanto los nanotransistores, como las nanomemorias- pueden ser cruciales para absorber las crecientes e inmensas capacidades de procesamiento y memoria que demandan los desarrollos multimedia, más aún cuando se avizora que de acá a máximo diez años la tecnología actual de semiconductores habrá agotado sus posibilidades de crecimiento.

En cuanto a alimentación, la corporación japonesa NEC, junto a otros institutos de investigación; ha anunciado el desarrollo de una célula de carburante con una capacidad diez veces mayor que una batería de litio, pero de tamaño diminuto, en lo que constituye otra aplicación de los nanotubos de carbono, esta vez como electrodos. En el futuro próximo, esta batería le podría permitir a dispositivos portátiles, como las notebooks, funcionar varios días seguidos sin conec­tarse a la corriente.

Los desarrollos en Nanotecnología se están aplicando también a los sistemas de seguridad. La empresa taiwanesa Biowell Technology presentó, un sintetizado que puede utilizarse para probar la autenticidad de pasaportes y otros documentos y tarjetas, con el fin de evitar el pirateo.

Este chip podrá utilizarse también en tarjetas de débito, carnés, matrículas de automóviles, permisos de conducir, discos compactos, DVD, programas informáticos, títulos y valores, bonos, libretas bancarias, antigüedades, pinturas, y otras aplicaciones en las que se necesite comprobar la autenticidad.


3.- Avances Nanoinformáticos:
Nuevos avances en nanotecnología pone a tiro a las supercomputadoras del mañana. Dentro de unos años, las computadoras serán bastante diferentes de las actuales. Los avances en el campo de la nanotecnología harán que las computadoras dejen de utilizar el silicio como sistema para integrar los transistores que la componen y empiecen a manejarse con lo que se llama mecánica cuántica, lo que hará que utilicen transistores a escala atómica.
  • Computadoras casi invisibles: La nanotecnología será un salto importante en la reducción de los componentes, y ya hay avances, pero muchos de estos adelantos se consideran secretos de las empresas que los están desarrollando. El tamaño de las computadoras del futuro también podría sorprender, ya que podría ser la quincuagésima parte (cincuenta veces menor) de una computadora actual de semiconductores que contuviera similar número de elementos lógicos. La reducción del tamaño desemboca en dispositivos más veloces; las computadoras podrán operar a velocidades mil veces mayores que las actuales. Algunos estudios pronostican que la técnica híbrida, que conjuga microcircuitos semiconductores y moléculas biológicas, pasará bastante pronto del dominio de la fantasía científica a las aplicaciones comerciales. Las pantallas de cristal líquido ofrecen un espléndido ejemplo del sistema híbrido que ha triunfado. Casi todas las computadoras portátiles utilizan pantallas de cristal líquido, que combinan dispositivos semiconductores con moléculas orgánicas para controlar la intensidad de la imagen en la pantalla. Son varias las moléculas biológicas que se podrían utilizar con vistas a su utilización en componentes informáticos.

II) Metodología:

Debido al limitado conocimiento del tema "Nanoinformatica" y para no errar en la interpretacion del mismo; el método usado para elaborar esta introducción leida anteriormente es el "Parafraseo" lo cual consitió en enlasar conceptos de diferentes autores para lograr un solo concepto compacto y des esta manera se esta conociendo y aprendiendo del tema sin temor a publicar una opinion errada.

III) Conclusiones:

Despues de haber leido y entendido lo expuesto anteriormente he llegado a las siguientes conclusiones:

  • Que la nanotecnologia es de mucha mas influencia en nuestro campo q es la computacion e informatica ya que es la base para todo avance científico.

  • Gracias a esto la nanoinformática esta cada vez mas adelantada lo q quiere decir es q muy pronto se lograra hacer ordenadores tan pequeños como las moléculas pero con mucha mayor capacidad que las q tenemos ahora.

  • Otra conclusion a la q he llegado es que el empezar a investigar en lo que es nonotubos de carbono seria de gran utilidad pues IBM a logrado hacer el primer circuito logico formado por nanotubos de carbono y que las computadoras basadas en estos circuitos serian de mucha más capacidad y calidad que las actuales y consumirian mucha menor energia.

  • Los componentes biológicos esta siendo tomados con mucha importancia por los investigadores ya que promete ser una gran ayuda para el avance nanoinformático ya que se ha demostrado que es un buen elemeto en las pantallas LCD y que ahora casi todas las computadoras portatiles tienen pantalla LCD de cristal liquido.

  • La conclusion final a la que he llegado es que si queremos que nuestro país deje de ser subdesarrollado y empize a crecer en el campo de la ciencia tenemos que lograr por lo menos dominar el tema de nanotecnologia, pues con lo poco que hasta ahora hemos logrado conocer, podemos darnos cuenta de que el futuro esta basado en la nanotecnología.

  • Sería un logro muy grande aunque utópico el q algún día no muy lejano nuestro ISTP "José Pardo" lograra implementar un laboratorio nanotecnológico.

Tuesday, December 05, 2006

Nanotecnología en el Perú

El mundo ya no es un pañuelo (Artículo de la UNI 16/03/2006)

Es aún más pequeño. Para quienes imaginábamos que la ciencia actual requiere de un gran laboratorio súper sofisticado, el del grupo de modelado y simulación a multiescala.Facultad de Ingeniería Mecánica de la Universidad de Ingeniería es una verdadera sorpresa. Desde un pequeño recinto, con no más de 10 ordenadores, alumnos dirigidos por el Ing. Alberto Coronado, observan, formulan hipótesis, experimentan y llegan a conclusiones.La simulación virtual es, hoy por hoy, la técnica de investigación por excelencia. Los muchachos de UNI pueden dar fe de ello.

Los grandes motores yacen en el piso inferior, como en un museo de dinosaurios. En el segundo piso, un grupo de 12 muchachos con visión de futuro, pasa varias horas jugando con lo minúsculo, experimentando a escala atómica, simulando resultados que ningún ojo humano verá nunca sin la ayuda de la tecnología.Lo que queremos enfatizar es que para avanzar en nanotecnología uno tiene que simular y eso en nuestros países no se ha tomado en cuenta. Estados Unidos y los países europeos gastan miles de millones de dólares simulando y aquí no se le toma la debida importancia. Estamos esperando a que los primeros pasen, nos dice -con tono de impotencia- el Ing. Coronado, mentor y guía del grupo.

Nanotecnología, nueva arma contra el cáncer (Artículo de La República 09/10/06)

La medicina convencional ya no estará sola en su lucha contra enfermedades casi irreversibles como el cáncer. Ahora tiene una aliada: la nanotecnología, conocida también como la ciencia en miniatura, con márgenes de error cercanos a cero.Para entender esta ciencia, con poco más de 20 años de desarrollo, se debe saber que su campo de investigación radica en el estudio de materiales vivos e inertes que reducidos al tamaño de un nanómetro (unidad de medida que es la millonésima parte de un milímetro) son capaces de transformar sus propiedades iniciales por otras totalmente distintas, pues en este nivel se determinan las propiedades de la materia.

Una de las aplicaciones más importantes de la nanotecnología es el tratamiento para la cura del cáncer, una enfermedad que hoy se combate a través de agresivas quimioterapias que desencadenan efectos secundarios que afectan al paciente en su salud y estado de ánimo.

La nanotecnología se muestra como un hálito de esperanza para los pacientes en la fase inicial de cualquier tipo de cáncer, además no causa dolor ni efectos secundarios.

El método que propone la nanotecnología consiste en introducir en el cuerpo por vía oral o sanguínea nanopartículas que transportan el tratamiento y se adhieren a los tejidos cancerosos. Una vez en contacto con ellos, estas irradian un color determinado y son estimuladas de manera externa con luz infrarroja para que liberen un fármaco y destruyan los tejidos dañados en segundos, sin afectar a las células sanas cercanas.

Estos avances prometen desplazar en un futuro no muy lejano a los tratamientos ofrecidos por la medicina convencional. "Cuando una persona contrae cáncer, su cuerpo emite señales de aviso mucho antes de que los métodos actuales sean capaces de detectar. Las nanopartículas pueden detectar estos cambios casi imperceptibles en las células humanas", manifiesta el jefe del Laboratorio de Materiales Nanoestructurados de la Universidad Nacional de Ingeniería, Abel Gutarra.

Actualmente, algunos de los productos para el tratamiento de esta enfermedad ya están en el mercado estadounidense. Además, en enero de 2004, la compañía australiana Starpharma inició pruebas clínicas en humanos del producto VivaGel para la prevención del VIH. Este medicamento fue reconocido como uno de los cinco principales logros de la nanotecnología hasta ahora.

Investigaciones en el Perú:

Pensar que la memoria humana podría estar almacenada en un chip ya no forma parte de una idea descabellada. Los avances científicos demuestran que es posible la utilización del chip de silicio, un dispositivo electrónico compuesto por millones de transistores que puede procesar y almacenar gran cantidad de información digital para albergar neuronas.Esta sorprendente fusión entre lo electrónico y biológico apunta a ofrecer un tratamiento a las personas que padecen, por ejemplo, Alzheimer, mal hasta hoy incurable.En el Perú, la investigación en el campo de la nanotecnología y específicamente en la utilización de chips va en aumento. El Laboratorio de Materiales Nanoestructurados de la Universidad Nacional de Ingeniería ha tomando la delantera en los avances orientados a la medicina."Nuestra intención es fusionar la electrónica con la biología en los chips de silicio", sostiene Gutarra, tras mencionar que actualmente realizan un proyecto de manera conjunta con un grupo de biólogos de la Universidad Cayetano Heredia e ingenieros mecatrónicos de la Pontificia Universidad Católica. Se trata de un biosensor −dispositivo detector de procesos físicos o químicos que usa una molécula de organismos vivos como elemento sensible− que concentra la tecnología de punta del chip de silicio con moléculas biológicas para la detección de plagas y enfermedades."El biosensor es funcional debido a que es portátil y no se necesita de un laboratorio para analizar las muestras de los fluidos extraídos de las personas, animales o productos agrícolas", afirma Mirko Zimic, director de la Unidad de Bioinformática y Biología Computacional de la Universidad Cayetano Heredia.Se pueden fabricar, entonces, múltiples chips que serían leídos por el biosensor. En este se depositarían los fluidos que son decodificados por la información contenida en el chip. Luego, a través de descargas eléctricas, se podría saber si el resultado es negativo o positivo."Las investigaciones peruanas en este campo son reconocidas internacionalmente y los avances realizados por físicos y químicos en nuestras principales universidades nos permiten pronosticar adelantos importantes en los próximos años. Sin embargo, es necesario anotar que sin el apoyo del Estado y las empresas privadas para financiar las investigaciones, el camino será difícil", sentenció Gutarra.

LA NANOTECNOLOGIA

Introducción:
El objetivo de este documento es explicar qué es exactamente la Nanotecnología y presentar de manera concisa los conceptos fundamentales de esta materia para que las personas que desconozcan este campo tengan una idea general de las perspectivas y las cuestiones que estarán presentes por sí mismas en los próximos años. Hemos de advertir al lector que incluso la definición de "Nanotecnología" es polémica y es posible que alguien quiera calificar nuestra definición. Por esta razón, hemos basado nuestra definición en los conceptos que sostienen los profesionales del campo en la actualidad.

Definición:

Es el desarrollo y la aplicación práctica de estructuras y sistemas en una escala nanométrica (entre 1 y 100 nanómetros).
No hay que confundirla con el término "Nanociencia", que no implica una aplicación práctica pero sí el estudio científico de las propiedades del mundo nanométrico."Nano" es un prefijo griego que significa "mil millones" (una mil millonésima parte de un metro es la unidad de medida que se usa en el ámbito de la Nanotecnología). Un átomo es más pequeño que un nanómetro, pero una molécula puede ser mayor.Una dimensión de 100 nanómetros es importante la Nanotecnología porque bajo este límite se pueden observar nuevas propiedades en la materia, principalmente debido a las leyes de la Física Cuántica.



Hay dos tipos de Nanotecnología:

A) Top-down:
Reducción de tamaño. Literalmente desde arriba (mayor) hasta abajo (menor). Los mecanismos y las estructuras se miniaturizan a escala nanométrica. Este tipo de Nanotecnología ha sido el más frecuente hasta la fecha, más concretamente en el ámbito de la electrónica donde predomina la miniaturización.

B) Bottom-Up:
Auto ensamblado. Literalmente desde abajo (menor) hasta arriba (mayor). Se comienza con una estructura nanométrica como una molécula y mediante un proceso de montaje o auto ensamblado, se crea un mecanismo mayor que el mecanismo con el que comenzamos. Este enfoque, que algunos consideran como el único y "verdadero" enfoque nanotecnológico, ha de permitir que la materia pueda controlarse de manera extremadamente precisa. De esta manera podremos liberarnos de las limitaciones de la miniaturización.

El último paso para la Nanotecnología de auto montaje de dentro hacia fuera se denomina "Nanotecnología molecular" o "fabricación molecular", y ha sido desarrollada por el investigador K. Eric Drexler. Se prevé que las fábricas moleculares reales sean capaces de crear cualquier material mediante procesos de montaje exponencial de átomos y moléculas, controlados con precisión. Cuando alguien se da cuenta de que la totalidad de nuestro entorno perceptivo está construida mediante un limitado alfabeto de diferentes constituyentes (átomos) y que este alfabeto da lugar a creaciones tan diversas como el agua, los diamantes o los huesos, es fácil imaginar el potencial casi ilimitado que ofrece el montaje molecular.
Algunos partidarios de una visión más conservadora de la Nanotecnología ponen en duda la viabilidad de la fabricación molecular y de este modo tienen una visión contradictoria a largo plazo con respecto a la teoría de Eric Drexler, el defensor más conocido de la teoría de la fabricación molecular. Es importante tener en cuenta de alguna manera esta nota discordante, porque la mayoría de los investigadores involucrados piensan que la madurez de la Nanotecnología es una evolución positiva y que la Nanotecnología mejorará de manera significativa la calidad de la vida en el planeta (y en el espacio) de la población mundial.

Perspectivas:

Hay que saber algo fundamental acerca de la Nanotecnología: la materia se manipula hasta llegar hasta su elemento más básico, el átomo. La Nanotecnología es un avance lógico, inevitable en el transcurso del progreso humano.
Más que un mero progreso en el limitado campo de la tecnología, representa el proceso de nacimiento de una nueva "era" en la que usamos todas las posibilidades de la Nanotecnología. Son múltiples las áreas en las que la Nanotecnología tiene aplicaciones potenciales: desde potentes filtros solares que bloquean los rayos ultravioleta hasta nanorobots diseñados para realizar reparaciones celulares. A continuación se enumera una lista con algunos ejemplos de los principales campos que se verán afectados por los avances de la Nanotecnología:

Materiales: nuevos materiales, más duros, más duraderos y resistentes, más ligeros y más baratos.

Informática: los componentes informáicos serán cada vez más y más pequeños, lo que facilitará el diseño de ordenadores mucho más potentes.

Energía: se prevé un gran aumento de las posibilidades de generación de energía solar, por ejemplo.

Salud y Nanobiotecnología: hay grandes expectativas en las áreas de prevención, diagnóstico y tratamiento de enfermedades. Por ejemplo, podrán colocarse sondas nanoscópicas en un lugar para medir nuestro estado de salud las veinticuatro horas del día, se desarrollarán nuevas herramientas para luchar contra las enfermedades hereditarias mediante el análisis genético y se podrán crear indicadores que detecten y destruyan, una a una, células cancerígenas.
Estas son algunas de las posibles aplicaciones. Los avances en estos campos tendrán repercusión en una amplia gama de industrias como la industria de los cosméticos, la industria farmacéutica, la industria de los electrodomésticos, la industria higiénica, el sector de la construcción, el sector de las comunicaciones, la industria de seguridad y defensa y la industria de la exploración espacial. Nuestro entorno también se beneficiará, en tanto que la producción de energía será más económica y limpia y se utilizarán materiales más ecológicos.
En breve, muchas áreas de nuestra vida diaria se verán afectadas de una manera u otra por el avance de la Nanotecnología. La Nanotecnología nos permitirá hacerlo todo mejor y con menos esfuerzo.
Futuras aplicaciones:

Según un informe de un grupo de investigadores de la Universidad de Toronto, en Canadá, las diez aplicaciones más prometedoras de la nanotecnología son:
Almacenamiento, producción y conversión de energía
Mejoras en la productividad agrícola
Tratamiento y remediación de aguas
Diagnóstico y cribaje de enfermedades
Sistemas de administración de fármacos
Procesamiento de alimentos
Remediación de la contaminación atmosférica
Construcción
Monitorización de la salud
Detección y control de plagas
Informática y wearables

Agenda:

En la actualidad, al comienzo del tercer milenio, los productos nanotecnológicos ya están disponibles en el mercado. Así, es posible comprar raquetas de tenis más ligeras y más resistentes compuestas de nanotubos de carbón o cosméticos que contienen nanopartículas que facilitan la absorción. Pero aún estamos lejos de la época de la Nanotecnología, cuando ésta tenga efecto en nuestra vida diaria. ¿Cuándo se producirá esa revolución? ¿Cuándo nos beneficiaremos de manera substancial de los avances en la investigación y en el desarrollo de la Nanotecnología? Los cálculos varían. Se calcula que a partir del 2010 y hasta el 2040 se producirá un desarrollo progresivo del enfoque de “bottom-up” hasta que culmine en la fabricación molecular, de manera que podamos comprobar si esta teoría se puede poner en práctica sin grandes obstáculos.

Intereses, responsabilidades:

Los intereses involucrados en el desarrollo de Nanotecnología son continentales: América, Europa y Asia están preparando campañas de desarrollo en curso que no se concluirán a corto plazo. Se están realizando grandes inversiones para desarrollar la Nanotecnología en todo el mundo.
Si por razones éticas extremistas o a causa de la prudencia antiapocalíptica, se intenta ahogar el avance de esta gran revolución post-industrial que actualmente se está desarrollando, sería un grave error estratégico porque ahora más que nunca la competencia mundial seguirá creciendo y los nuevos súper poderes de la Nanotecnología van a aparecer, sobre todo en Asia.
Por ello, si hay que incentivar el desarrollo de la Nanotecnología, los esfuerzos han de realizarse en la dirección adecuada: han de establecerse garantías, porque al igual que con todos los grandes avances tecnológicos, las nuevas posibilidades contienen incógnitas y riesgos que debemos conocer, como una nueva carrera armamentística, basada en armas más pequeñas y más mortíferas.

Tuesday, November 07, 2006

AIGNACION 7
La ISO (International Standarization Organization) es la entidad internacional encargada de favorecer la normalización en el mundo. Con sede en Ginebra, es una federación de organismos nacionales, éstos, a su vez, son oficinas de normalización que actuan de delegadas en cada país, como por ejemplo: AENOR en España, AFNOR en Francia, DIN en Alemania, etc. con comités técnicos que llevan a término las normas. Se creó para dar más eficacia a las normas nacionales.

¿Qué es una norma?
Las normas son un modelo, un patrón, ejemplo o criterio a seguir. Una norma es una fórmula que tiene valor de regla y tiene por finalidad definir las carecterísticas que debe poseer un objeto y los productos que han de tener una compatibilidad para ser usados a nivel internacional. Pongamos, por ejemplo, el problema que ocasiona a muchos usuarios los distintos modelos de enchufes que existen a escala internacional para poder acoplar pequeñas máquinas de uso personal: secadores de cabello, máquinas de afeitar, etc. cuando se viaja. La incompatibilidad repercute en muchos campos. La normalización de los productos es, pues, importante. La finalidad principal de las normas ISO es orientar, coordinar, simplificar y unificar los usos para conseguir menores costes y efectividad.


Cómo escribir un artículo científico

La introducción debe responder a la pregunta de "porqué se ha hecho este trabajo". Describe el interés que tiene en el contexto científico del momento, los trabajos previos que se han hecho sobre el tema y qué aspectos no dejan claros. Con la abundancia de trabajos de revisión existentes actualmente, la Introducción no necesariamente debe ser muy extensa y puede beneficiarse de lo expuesto en la revisión más reciente sobre el tema. La Introducción es pues la presentación de una pregunta, la cual es a su vez como el nexo de unión que engarza la investigación con el cuerpo de doctrina existente. Y para no encontrarse al final del esfuerzo con la sorpresa de que la pregunta ya ha sido respondida por otro investigador más madrugador, es necesario (imperativo, por mucho que cueste), hacer una revisión bibliográfica previa. Probablemente es la parte más costosa del trabajo, entre otras cosas porque siempre existe la posibilidad de que de dicha revisión pueda concluirse que nuestras preguntas ya tienen respuesta y, por lo tanto, no vale la pena llevar a cabo la investigación. Es conveniente que el último párrafo de la Introducción se utilice para resumir el objetivo del estudio.Material y MétodosEn esta sección se responde a la pregunta de "cómo se ha hecho el estudio". Una vez se han visto las razones por las que merece la pena acometer el proyecto, hay que pensar en cómo llevarlo a la práctica, para lo cual es de gran utilidad la ayuda de un epidemiólogo o de un bioestadístico a fin de no malgastar esfuerzos en vano. Un magnífico proyecto puede resultar inválido o ineficiente si no utiliza la metodología adecuada: no se puede llevar a cabo un estudio de causalidad con un diseño transversal; es ineficiente hacer un estudio prospectivo, más largo y costoso, si lo que se busca es simplemente explorar una hipotética relación causa-efecto, algo que con un estudio retrospectivo, más rápido y barato, puede resolverse, reservando el estudio prospectivo para probar dicha relación. Muchos estudios fracasan por defectos en la metodología utilizada. Si un bioestadístico o epidemiólogo colabora de alguna forma en la investigación, debe ser, o bien retribuido económicamente, o bien incluido entre los autores. La sección de material y métodos se organiza en cinco áreas: Diseño: se describe el diseño del experimento (aleatorio, controlado, casos y controles, ensayo clínico, prospectivo, etc.) Población sobre la que se ha hecho el estudio. Describe el marco de la muestra y cómo se ha hecho su selección. Entorno: indica dónde se ha hecho el estudio (hospital, asistencia primaria, escuela, etc). Intervenciones: se describen las técnicas, tratamientos (utilizar nombres genéricos siempre), mediciones y unidades, pruebas piloto, aparatos y tecnología, etc. Análisis estadístico: señala los métodos estadísticos utilizados y cómo se han analizado los datos. La sección de material y métodos debe ser lo suficientemente detallada como para que otro autor pueda repetir el estudio y verificar los resultados de forma independiente.ResultadosEsta sección debiera ser la más simple de redactar. Incluye las tablas y figuras que, por sí solas, deben poder expresar claramente los resultados del estudio. Hay editores de revistas importantes que afirman sin ambages que el mejor texto para esta sección debiera ser simplemente: "los resultados del estudio se pueden ver en la Tabla 1".Los resultados deben cumplir dos funciones:Expresar los resultados de los experimentos descritos en el Material y Métodos. Presentar las pruebas que apoyan tales resultados, sea en forma de figuras, tablas o en el mismo texto. Los resultados deben poder ser vistos y entendidos de forma rápida y clara. Es por ello por lo que la construcción de esta sección debe comenzar por la elaboración de las tablas y figuras, y sólo posteriormente redactar el texto pertinente en función de ellas. El primer párrafo de este texto debe ser utilizado para resumir en una frase concisa, clara y directa, el hallazgo principal del estudio. Esta sección debe ser escrita utilizando los verbos en pasado. Aunque se utiliza mucho la voz pasiva o el impersonal ("se ha encontrado que...") como prefieren algunos editores, cada vez se tiende más a utilizar la voz activa en primera persona del plural ("hemos visto que... "); al fin y al cabo el mérito es de los autores y no hay porqué ocultarlo.DiscusiónEsta sección es el corazón del manuscrito, donde la mayoría de los lectores irán después de leer el resumen (a pesar de que los expertos recomiendan que, tras leer el título, lo primero que hay que leer es el material y métodos) y la sección más compleja de elaborar y organizar. Algunas sugerencias pueden ayudar: Comience la Discusión con la respuesta a la pregunta de la Introducción, seguida inmediatamente con las pruebas expuestas en los resultados que la corroboran. Escriba esta sección en presente ("estos datos indican que"), porque los hallazgos del trabajo se consideran ya evidencia científica. Saque a la luz y comente claramente, en lugar de ocultarlos, los resultados anómalos, dándoles una explicación lo más coherente posible o simplemente diciendo que esto es lo que ha encontrado, aunque por el momento no se vea explicación. Si no lo hace el autor, a buen seguro lo hará el editor. Especule y teorice con imaginación y lógica. Esto puede avivar el interés de los lectores. Incluya las recomendaciones que crea oportunas, si es apropiado. Y, por encima de todo, evite sacar más conclusiones de las que sus resultados permitan, por mucho que esas conclusiones sean menos espectaculares que las esperadas o deseadas.Otros aspectos del artículoEl título debe ser corto, conciso y claro. Los más efectivos tienen menos de 10 palabras y no deben incluir abreviaturas ni acrónimos. Todos los acrónimos utilizados en el texto deben ser seguidos, la primera vez que se mencionan, de un paréntesis con su significado. Es aconsejable que el título sea escrito después de redactar el núcleo del manuscrito (introducción, material-métodos, resultados y discusión). Los títulos pueden ser informativos ("Alta incidencia de infartos de miocardio en fumadores") o indicativos ("Incidencia del infarto de miocardio en fumadores"). El resumen da una visión de conjunto del trabajo. Si se trata de trabajos de revisión, el resumen suele ser descriptivo (describe brevemente cuál es el contenido del trabajo y no menciona resultados ni conclusiones); si se trata de trabajos originales, el resumen es comprehensivo (informa brevemente de todas las secciones del trabajo, incluyendo resultados y conclusiones). Este resumen comprehensivo puede ser estructurado (con los apartados de: objetivo, diseño, entorno, sujetos, resultados y conclusiones) o no estructurado, en el que la información se suele dar en dos o tres párrafos. Obsérvese que en el resumen estructurado, la Introducción es sustituida por Objetivo, la Discusión por Conclusiones y el Material-Métodos está separado en sus componentes. Los errores más frecuentes en la redacción del resumen son: no plantear claramente la pregunta ser demasiado largo ser demasiado detallado Las palabras clave serán de 3 a 10, si su número no está ya especificado en las "Instrucciones para los Autores", y seleccionadas a ser posible de la lista del MeSH (Medical Subject Headings), del Index Medicus o del Indice Médico Español. Los agradecimientos se situarán en el lugar que determine el editor de la revista en las "Instrucciones para los Autores": puede ser en la primera página o al final de la Discusión. Se deben incluir en los agradecimientos, pero no entre los autores, a quienes sin ser autores o coautores en sentido estricto han prestado su ayuda técnica (técnicos de laboratorio, secretarias, etc.) o han sido de inestimable apoyo moral (el Jefe de un Departamento, etc.).La bibliografíase citará según la normativa exigida por la revista elegida. Salvo casos de publicaciones de gran relevancia histórica, las citas deben ser recientes, no superiores a los 5 años en caso de un trabajo de revisión. Esta normativa suele seguir de manera bastante uniforme las normas de Vancouver. Para la citación de revistas se indica el siguiente orden: Nombre de los autores, hasta un máximo de seis, separados por comas, con su apellido y las iniciales sin puntos (excepto tras la última inicial del último autor). Si se sobrepasa el número de seis, hay que escribir los seis primeros y añadir "et al.", abreviación de la expresión latina "et alii" que significa "y otros". Si el autor es un Comité, poner el nombre del Comité. Título del trabajo, terminado con un punto. Revista biomédica, en su expresión abreviada según aparece en el Index Medicus, a la que sigue, sin puntuación alguna intermedia, el Año de publicación, -punto y coma-, Volumen, -abrir paréntesis-, Número o mes del ejemplar (esto puede omitirse si la paginación del Volumen es consecutiva), -cerrar paréntesis-, -dos puntos-, Páginas del artículo (la primera y la última, si bien la última página puede indicarse con sólo el último dígito si los primeros fueran iguales a los de la primera página). Si se trata capítulos de libros en los que varios autores han colaborado, se cita de la siguiente forma: Autor/es del capítulo Título del capítulo Autor/es del libro (denominados "editores" en terminología anglosajona), Título del libro Ciudad donde se ha impreso Editorial que lo ha publicado Año de publicación páginas (primera y última) del capítulo He aquí algunos ejemplos: 1-International Committee of Medical Journal Editors. Uniform requirements for manuscripts submitted to biomedical journals. N Engl J Med 1991; 324: 424-5 2-Weinstein L, Swartz MN. Pathologic properties of invading microorganisms. En: Sodeman WA, editor. Pathologic physiology: mechanisms of disease. Philadelphia: Saunders, 1974:457-72.Además de la normativa de Vancouver, existe la normativa para la citación de publicaciones en la bibliografía de trabajos científicos, según la American Psychology Association.Comprobación de errores¿Se envía a la revista adecuada? ¿Se cumplen todas las instrucciones que el editor de la revista indica? ¿Son los autores los que realmente merecen el crédito del trabajo? ¿Es el resumen demasiado largo o demasiado complejo? ¿Está correctamente estructurado el núcleo del trabajo (introducción, material- métodos, resultados, discusión? ¿Es la bibliografía reciente y citada según normativa de la propia revista? ¿Se corresponden las citas bibliográficas con lugar del texto donde se citan? ¿Se responde en la Conclusión a la pregunta formulada en la Introducción? ¿Se sacan las conclusiones apropiadas a los resultados obtenidos y no más? ¿Son las tablas o figuras fácilmente inteligibles y resumen los resultados? ¿Están la Introducción y Conclusiones escritas en presente, y el Material y Resultados, en pasado?

Wednesday, November 01, 2006

ASIGNACION 6

Clasificación del proyecto:


Los proyectos se clasificarán de acuerdo con los siguientes criterios:

  • Según CITMA: básicos o de creación científica, aplicados o de desarrollo tecnológico, de innovación tecnológica, servicios científicos y tecnológicos, etc.

  • Básicos o de creación científica: encaminado a la búsqueda de nuevos conocimientos fundamentales dentro del universo de salud, sin perseguir de antemano ninguna aplicación o uso particular del proceso.

  • Aplicada o de desarrollo tecnológico: aplicación práctica de la investigación básica. Tiene un propósito definido y se dirige a la solución de una necesidad percibida o un problema de salud existente.

  • Investigación y desarrollo (I+D): combinación de la investigación de creación científica y de desarrollo tecnológico, que conduce a un nuevo proceso o producto y por extensión a su realización a escala comercial.

  • Evaluación de tecnología: encaminada a examinar las consecuencias sociales más amplias de la introducción de una tecnología nueva, la ampliación o extensión de una tecnología existente o la repercusión de una tecnología de uso no evaluada previamente.

  • Asimilación de una tecnología: incorporación a la práctica diaria del uso de una tecnología no empleada antes en la provincia o país.20

  • Según tipo de estudio: exploratorios, descriptivos (transversales y longitudinales), no experimentales (observacionales y analíticos), y experimentales (ensayos clínicos).

  • Según programas: nacionales, ramales, territoriales y proyectos no asociados con programas.

Tuesday, October 17, 2006

ASIGNACION 5
Clasificacion de los metodos científicos:
  • El método hermenéutico: (Método Deductivo)
    No sólo interpreta la realidad, sino que la crea, no sólo asimila, sino que transforma. La comprensión es algo que va entre ese factor interpretante y ese factor de transformación.

  • Los métodos heurísticos:(Método Inductivo) Se compone de una serie de pasos generales para resolver problemas, empleando reglas empíricas que suelen llevar a la solución.
    Los métodos heurísticos son estrategias generales aplicables a una amplia variedad de situaciones problemáticas; proveen alternativas para aproximarse a la solución de cualquier problema, así como para comprenderlos, confrontarlos y resolverlos. Los métodos heurísticos ofrecen sólo una probabilidad razonable de acercarse a la solución. Un ejemplo, es el método heurístico de Polya, que considera los siguientes pasos: · Comprender el problema. · Idear un plan. · Ejecutar ese plan. · Verificar los resultados.

  • Método exegético: (M.I.) Este método permitió la explicación pormenorizada de las diferentes disposiciones legales analizadas en el estudio. Método exegético busca clarificar conceptos oscuros / dudosos, mediante un examen de la intención del Legislador que ha creado la norma.

  • Método hipotético:(M.D.) Es central en esta concepción del método científico, la falsabilidad de las teorías científicas, esto es, la posibilidad de ser refutadas por la experimentación. En el método hipotético deductivo, las teorías científicas no pueden nunca reputarse verdaderas, sino a lo sumo no refutadas.

  • Método Sintético :(M.I.) Es un proceso mediante el cual se relacionan hechos aparentemente aislados y se formula una teoría que unifica los diversos elementos. Consiste en la reunión racional de varios elementos dispersos en una nueva totalidad, este se presenta más en el planteamiento de la hipótesis. El investigador sintetiza las superaciones en la imaginación para establecer una explicación tentativa que someterá a prueba.

  • Método sincrónico: (M.I.) Explica los fenómenos sociales a través de sus relaciones con fenómenos que se dan en el mismo tiempo.

  • Método diacrónico: (M.D.) explica los fenómenos comparándolos con otros que se han presentado anteriormente. En este método se perciben los fenómenos sociales como una fase en un proceso dinámico.

  • Método Analítico: (M.D.) Se distinguen los elementos de un fenómeno y se procede a revisar ordenadamente cada uno de ellos por separado. La física, la química y la biología utilizan este método; a partir de la experimentación y el análisis de gran número de casos se establecen leyes universales. Consiste en la extracción de las partes de un todo, con el objeto de estudiarlas y examinarlas por separado, para ver, por ejemplo las relaciones entre las mismas.

  • Método Descriptivo: (M.D.) Consiste en describir, analizar e interpretar sistemáticamente un conjunto de hechos o fenómenos y sus variables que les caracterizan de manera tal como se dan en el presente. El método descriptivo apunta a estudiar el fenómeno en su estado actual y en su forma natural; por tanto las posibilidades de tener un control directo sobre las variables de estudio son mínimas, por lo cual su validez interna es discutible.
    A través del método descriptivo se identifica y se conoce la naturaleza de una situación en la medida en que ella existe durante el tiempo del estudio; por consiguiente no hay administración o control manipulativo o un tratamiento específico. Su propósito básico es: Describir cómo se presenta y qué existe con respecto a las variables o condiciones en una situación.

  • Método explicativo: (M.D.) Aquella orientación que además de considerar la respuesta al ¿cómo es ? se centra en responder a la pregunta ¿por qué es así la realidad? o ¿cuáles son las causas? lo que implica plantear hipótesis explicativas, y un diseño expirativo.

  • Método Experimental: (M.I.) Consiste en organizar deliberadamente condiciones, de acuerdo con un plan previo, con el fin de investigar las posibles relaciones causa-efecto exponiendo a uno o más grupos experimentales a la acción de una variable experimental y contrastando sus resultados con grupo de contro o de comparación.
    Prácticamente se opone al método descriptivo en el sentido de que, el experimento por ser deliberado, aleja al investigadorde situaciones normales o naturales o de la vida diaria; así como presupone procedimientos de control más riguroso.
    Hacen uso del método experimental los diseños de investigación pre-experimental, cuasi-experimental y experimental propiamente dicho. Tanto los diseños pre-experimentales y especialmente cuasi-experimentales, consisten en aproximarse a las condiciones de un verdadero experimento en un ambiente que no permite el contro directo o la manipulación de las variables de estudio.

  • Método Sistémico: (M.D.)
    Está dirigido a modelar el objeto mediante la determinación de sus componentes, así como las relaciones entre ellos. Esas relaciones determinan por un lado la estructura del objeto y por otro su dinámica.

  • Método Histórico: (M.D.)
    Está vinculado al conocimiento de las distintas etapas de los objetos en su sucesión cronológica, para conocer la evolución y desarrollo del objeto o fenómeno de investigación se hace necesario revelar su historia, las etapas principales de su desenvolvimiento y las conexiones históricas fundamentales. Mediante el método histórico se analiza la trayectoria concreta de la teoría, su condicionamiento a los diferentes períodos de la historia. Los métodos lógicos se basan en el estudio histórico poniendo de manifiesto la lógica interna de desarrollo, de su teoría y halla el conocimiento más profundo de esta, de su esencia. La estructura lógica del objeto implica su modelación.

  • Método Genético: (M.D.)
    Implica la determinación de cierto campo de acción elemental que se convierte en célula del objeto, en dicha célula están presentes todos los componentes del objeto así como sus leyes más trascendentes.

  • Método de la Modelación: (M.D)
    Es justamente el método mediante el cual se crean abstracciones con vistas a explicar la realidad. El modelo como sustituto del objeto de investigación. En el modelo se revela la unidad de los objetivo y lo subjetivo.
    La modelación es el método que opera en forma práctica o teórica con un objeto, no en forma directa, sino utilizando cierto sistema intermedio, auxiliar, natural o artificial.

ASIGNACION 4
Realismo:
  • Es el método de trabajo de la ciencia. Parte de la base de que los sentidos no nos engañan, si hay algo que parece engañoso, tiene que haber una explicación racional para ello. Para la ciencia cualquier teoría que sirve para explicar los fenómenos es cierta, aunque sea errónea, si durante el tiempo que está vigente es válida. La realidad existe por sí misma, es independiente del sujeto. Otra cosa es que la conozcas parcialmente y no en toda su amplitud.

  • Sostiene que los lenguajes en los que las teorías científicas son elaboradas y expresadas deben ser interpretados literalmente, es decir, que los términos y conceptos utilizados en el lenguaje teórico deben ser entendidos como referentes o descríptores de entidades realmente existentes. A la vez, los realistas mantienen que las teorías científicas son descripciones del mundo que deben ser evaluadas en función de su veracidad o falsedad. Por último, los pertenecientes a la corriente realista sostienen que la aceptación de una teoría implica necesariamente creer que dicha teoría es verdadera.
  • Rom Harre sostiene que es una doctrina metafísica, y que hay un mundo independiente de la mente al cual referirse exitosamente haciendo uso de teorías. Sin embargo, no cree que la mejor estrategia sea enfatizar que el realismo se caracteriza mejor primero y principalmente como una doctrina metafísica, y relegar las cuestiones semánticas y epistémicas al status de problemas secundarios. Es cierto que el corazón del realismo es metafísico, las teorías ayudan exitosamente a referir a una realidad independiente de la mente, parte de la cual nunca puede ser observada, y esto no tiene nada que ver con la semántica. Se puede interactuar exitosamente con el mundo a pesar de que nuestras teorías sean falsas. Pero ¿la semántica es realmente irrelevante para la metafísica? Harré no lo cree así, e intenta mostrar que hay versiones de la teoría de la verdad como correspondencia inmunes a las críticas. Según Harré, el principio de “todo o nada” por el que parecen haberse caracterizado la visiones tradicionales acerca de la verdad y la falsedad, no ha sido nunca un rasgo necesario del concepto genérico de verdad, esto es, el principio de bivalencia no es universalmente válido, sino que se sostiene solamente para ciertos casos límite. Una vez que se le asigna a la verdad su verdadero rol, el realismo científico puede ser entendido preservando dicho concepto.

ASIGNACION 3
DIMENCIONES DE LA REALIDAD SEGUN
ALBERT EINSTEIN
Masa y energía:
Einstein estableció la ecuación E = mc2 (donde E es energía; m, masa; y c, la velocidad constante de la luz) para explicar que masa y energía son equivalentes. Hoy se sabe que masa y energía son formas distintas de una misma cosa que recibe el nombre de masa-energía. Si la energía de un objeto disminuye una cantidad E, su masa también se reduce una cantidad igual a E/c2. Pero la masa-energía no desaparece, sino que se libera en forma de la llamada energía radiante.

Espacio-tiempo:
Doscientos años antes de que Albert Einstein formulara sus teorías sobre la relatividad, el matemático inglés Isaac Newton sugirió que el espacio y el tiempo eran absolutos (fijos) y que el primero estaba totalmente separado del segundo. Según la teoría de la relatividad, sin embargo, el tiempo y las tres dimensiones del espacio (longitud, altura y profundidad) constituyen un marco de cuatro dimensiones que recibe el nombre de continuum espacio-temporal
La expresión espacio-tiempo ha devenido de uso corriente a partir de la Teoría de la Relatividad especial formulada por Einstein en 1905.
De esta forma se hace referencia a la importancia de considerar como variable no sólo las tres dimensiones del espacio sino también el tiempo para comprender cabalmente los fenómenos físicos que ocurren en el Universo; es usual la expresión "cuarta dimensión" o "espacio de cuatro dimensiones".

Tuesday, September 19, 2006

ASIGNACION 2

  • Dialéctica: La dialéctica es una lógica basada en la 'identidad' y la 'inclusión' de conceptos. Aún no en la 'oposición' o contradicción, operación que se introduce a partir de la dialéctica hegeliana.
    Sistema de razonamiento que analiza las contradicciones que surgen a la hora de estudiar la realidad y que intenta dilucidarlas: la idea de superar los términos de la contradicción en una síntesis creativa es la base de la dialéctica hegeliana.
    Ciencia que trata de las leyes más generales del desarrollo de la naturaleza, de la sociedad y del pensamiento humano.Método de razonamiento que enfrenta posiciones diferentes para confrontarlas y extraer de ellas la verdad.
    ciencia filosófica que permite llegar a la verdad: La Dialéctica es ciencia y es método a la vez y permite llegar a las ideas más elevadas (Dialéctica ascendente que culmina en la idea del bien) y descender a las cosas más humildes (Dialéctica descendente) en búsqueda constante de la verdad.

  • Dialéctica del conocimiento: La dialéctica del conocimiento, consistente en la revelación de las contradicciones del concepto, el descubrimiento de lo contradictorio contenido en ellas, y la superación de las contradicciones fue fundamentada y desarrollada por Hegel como la lógica interna del desarrollo del conocimiento.

Tuesday, September 12, 2006

ASIGNACION 1
Las 7 Deficiencias señaladas por Raúl Rojas Soriano
1. La separación de los elementos filosóficos, epistemológicos, metodológicos y técnicos en el proceso de enseñanza-aprendizaje de la investigación.

Comentario: Se dice que para una buena enseñanza de investigación científica se tiene que tener todos los elementos filosóficos en conjunto para que así sea una buena enseñanza lo cual ahora no se da es por eso que la investigación científica no avanza en el país.

2. La presentación de esquemas o modelos de investigación como un conjunto de pasos o etapas que deben seguirse mecánicamente para alcanzar la verdad científica.

Comentario: En mi opinión cada persona tiene una manera distinta de ver las cosas y los grandes científicos han logrado sus descubrimientos por sus propios métodos y sin seguir modelo alguno por lo tanto los esquemas o pasos solo dificultan el avance científico.

3. La desvinculación entre los planteamientos teóricos sobre la investigación y los problemas propios del medio profesional en donde el egresado va a trabajar. La formación de investigadores y, concretamente, la metodología se presenta en forma abstracta, aislada de las condiciones sociohistóricas en que vive y trabaja el alumno.

Comentario: Hoy en día la ciencia que nos brindan es casi totalmente teórica ya que a la final no se puede aplicar en el desarrollo del país como por ejemplo las carreras profesionales que solo brindan teoría y no dan a conocer los problemas netamente de un campo laboral , generalmente no se enseña de acuerdo a la realidad de la persona egresado, por lo tanto al salir no tiene la metodología para su desenvolvimiento lo cual hace a un investigador mediocre. Es por eso que se tiene que enseñar de a curdo con la realidad de la persona para después se pueda desenvolver y ayudar al crecimiento del país.

4. La exposición de los temas metodológicos está bajo la responsabilidad del profesor, mientras que los alumnos asumen una actitud pasiva o cuando mucho sólo participan con preguntas o dudas.

Comentario: En estos tiempos hemos caído en gran error de conformarnos con lo que el profesor nos presenta y aceptarlo como la única verdad, lo cual hace que nosotros los alumnos tomemos una actitud pasiva; cuando en realidad nuestra actitud frente al aprendizaje debe ser activa y dinámica y esto solo se consigue si empezamos a descubrir las cosas por nuestro propio esfuerzo tomando al profesor como guía para nuestra investigación de esta manera estaríamos en camino a l a investigación científica.

5. La realización de talleres de investigación reproduce los vicios y deficiencias de la enseñanza tradicional: poca participación, pobre discusión. La mayoría de los miembros del equipo de trabajo no asume su responsabilidad; se nombran representantes para realizar las distintas tareas, lo que origina poca o ninguna colaboración del resto del equipo.

Comentario: Usualmente los trabajos en equipo generan la poca participación de los miembros del grupo lo cual genera poco aprendizaje cuando en realidad debería ser un motivo para investigar bien y así de manera conjunta poder llegar a una conclusión, ya que, haciendo esto todos los integrantes estarán en la capacidad de compartir estos conocimientos con los demás.

6. La falta de productos concretos (proyectos de investigación) que permitan materializar las indicaciones metodológicas.

Comentario: La falta de temas concretos para investigar hace que toda investigación sea abstracta (no se puede ver). Lo cual hace que halla poco interés en la investigación o dedicación a la ciencia.

7. La desvinculación entre el método de investigación y el método de exposición. Se enseña a investigar pero se descuidan los aspectos relacionados con la exposición del trabajo, lo que dificulta cumplir con una exigencia fundamental de la comunicación científica: socializar el conocimiento.

Comentario: El enseñar a investigar, que es indagar con mucha dedicación, tiene que estar ligado a enseñar lo exposición, que vendría a ser explicar lo que se aprendió con dicha investigación, para que de esta manera la enseñanza sea completa y así se pueda lograr el avance del desarrollo intelectual del país ya que al exponer algo que hallamos aprendido compartimos el conocimiento con los demás, así ellos también habrán aprendido e incluso podrán indagar más y mejorar estos conocimientos.