trabajo de nuevas tecnologías-1

118
La Ingeniería, es la profesión que aplica conocimientos y experiencias en la sociedad, a través de diseños, modelos y técnicas, resolviendo los problemas de la humanidad, permitiendo así impulsar el desarrollo tecnológico, logrando un mejor avance y calidad de vida para los individuos. Del mismo modo, logra satisfacer las necesidades tanto individuales y colectivas de los seres humanos, caracterizándose por utilizar el ingenio el cual posee una combinación de sabiduría e inspiración moldeando cualquier sistema en la práctica y es más ágil y efectiva que el método científico, porque una actividad de ingeniería generalmente está limitada a un tiempo y recursos dados por proyectos. Cabe resaltar que su origen se dio en Asia Menor o África aproximadamente hace 8000 años, cuando el hombre empieza a descubrir la manera de cómo cultivar sus tierras, domesticar animales y construir viviendas para sus descendientes. En la actualidad, la Ingeniería ha avanzado de forma acelerada de acuerdo a las necesidades de cada País, gracias a la preparación física, técnica e intelectual, que ha permitido que el hombre amplie sus conocimientos para luego ponerlos en práctica, logrando así un País altamente

Upload: wilson-chavez-perez

Post on 22-Jun-2015

15 views

Category:

Documents


5 download

TRANSCRIPT

Page 1: Trabajo de Nuevas Tecnologías-1

La Ingeniería, es la profesión que aplica conocimientos y experiencias en la

sociedad, a través de diseños, modelos y técnicas, resolviendo los problemas de

la humanidad, permitiendo así impulsar el desarrollo tecnológico, logrando un

mejor avance y calidad de vida para los individuos. Del mismo modo, logra

satisfacer las necesidades tanto individuales y colectivas de los seres humanos,

caracterizándose por utilizar el ingenio el cual posee una combinación de

sabiduría e inspiración moldeando cualquier sistema en la práctica y es más ágil y

efectiva que el método científico, porque una actividad de ingeniería

generalmente está limitada a un tiempo y recursos dados por proyectos.

Cabe resaltar que su origen se dio en Asia Menor o África

aproximadamente hace 8000 años, cuando el hombre empieza a descubrir la

manera de cómo cultivar sus tierras, domesticar animales y construir viviendas

para sus descendientes. En la actualidad, la Ingeniería ha avanzado de forma

acelerada de acuerdo a las necesidades de cada País, gracias a la preparación

física, técnica e intelectual, que ha permitido que el hombre amplie sus

conocimientos para luego ponerlos en práctica, logrando así un País altamente

desarrollado. Casi todos los grandes campos de actividad económica han recibido

grandes beneficios de la ingeniería. La agricultura, con todas sus versiones; la

minería tradicional y la moderna; la industria grande, la mediana y la pequeña; los

transportes terrestres, fluviales y aéreos; las agroindustrias convencionales y las

más modernas; los petróleos en todas sus etapas, desde la exploración hasta las

calderas y los motores; la edificación y las obras públicas; el poderoso y ya muy

avanzado sector eléctrico; los servicios públicos domiciliarios, la medicina y el

creciente sector financiero. No habría economía moderna sin el vasto y sólido

soporte que le ha dado y le sigue dando la ingeniería.

Page 2: Trabajo de Nuevas Tecnologías-1

Es importante señalar, algunos de los pioneros de la Ingeniería en el

mundo, entre los cuales se destacan, Taylor, asociado con el estudio de métodos,

además de otras actividades; Gantt se asocia con los principios del desarrollo de la

dirección y con su enfoque humanístico; Frank Gilbreth es identificado con el estudio

de movimientos, junto con su esposa, quienes llegaron a la adaptación de los

procedimientos de la Ingeniería Industrial al hogar y entornos similares, así como a

los aspectos psicológicos de la conducta humana; Harrington Emerson escribió,

expuso y desarrolló un eficiente plan de salarios con primas, entre otros.

Cabe resaltar, la importancia que posee la Ingeniería porque está

concatenado junto a la ciencia, consistiendo en la Observación y análisis para

elaborar una Hipótesis , la cual consiste en un enunciado que afirma el

comportamiento de un determinado objeto, lo que deja como resultado la

fundamentación de una Ley o Principio aplicable para ese caso o para varios en

particular; las ciencias no son solamente concepciones teóricas, sino que son

aplicadas en la vida cotidiana y a veces sin darnos cuenta, y es así que en esta

ocasión traemos el ejemplo de la Ingeniería, que no consiste exactamente en una

ciencia, pero sí es una Práctica Profesional que recurre a ellas para su labor,

aplicándose en todo tipo de creaciones que utilizamos diariamente.

Así mismo, el impacto que la Ingeniería ha conllevado a la sociedad se ha

visto de una manera tanto positiva como negativa, porqué todo lo materialmente

elaborado hoy en día, se han creado pensando en el desarrollo de los individuos

en la sociedad, tales como: Los Electrodomésticos, Transporte, y así satisfaciendo

las necesidades básicas del colectivo, obteniendo como resultado durante un

largo período de tiempo los conocimientos, la sabiduría y las experiencias

necesarias, para transformar el nuevo ciudadano del Siglo XXI, y logrando así una

revolución en la forma de vivir y pensar del hombre moderno, la vida hoy en día

es más acelerada, la extremada rapidez del avance tecnológico hace que lo que

se compra hoy mañana ya sea obsoleto, lo que lleva a un consumismo constante

en algunas personas y le genera graves problemas de salud. El ingeniero no se

Page 3: Trabajo de Nuevas Tecnologías-1

para en el diseño y cálculo de los parámetros de un trabajo, sino que, desde una

concepción global de los problemas, integra las variables sociales, económicas y

ambientales, para proponer las soluciones más eficientes con los medios y las

tecnologías disponibles

Aunado a esto, el Impacto e Incidencias de las Tecnologías de Información

y Comunicación (TIC), han permitido llevar la globalidad al mundo de la

comunicación, facilitando la interconexión entre las personas e Instituciones a nivel

mundial, incidiendo e impactando en la adquisición, producción, almacenamiento,

tratamiento comunicación, registro y presentación de informaciones, así como la

simbología para el aprendizaje de las mismas. El impacto que ha generado las TIC

en el mundo de la Ingenieria, ha contribuido a crear, planear, implantar,

administrar, evaluar y supervisar, sistemas de información, para tener una

competitividad en el ámbito laboral.

La ingeniería genética humana es la alteración del genotipo de un individuo con el propósito de elegir el fenotipo antes de la concepción, o cambiando el fenotipo ya existente en un niño o un adulto.1 Esta ingenería promete curar enfermedades genéticas como la fibrosis quística, e incrementar la resistencia de las personas a las enfermedades infecciosas. Se especula igualmente que la ingeniería genética podría ser además utilizada para cambiar la apariencia física, el metabolismo, e incluso mejorar las facultades mentales como la memoria y la inteligencia; aunque por ahora, estos usos se limitan a la ciencia ficción.

Los investigadores están actualmente tratando de mapear y asignar a los genes diferentes funciones biológicas y enfermedades.

Historia[editar]

Los primeros ensayos de terapia génica en seres humanos se iniciaron en 1990 en pacientes con Inmunodeficiencia Combinada Severa (SCID por sus siglas en inglés). En el 2000, el primer "éxito" de la terapia génica resultó en pacientes SCID con un sistema inmune funcional. Estos ensayos fueron detenidos cuando se descubrió que dos de cada diez pacientes en un ensayo habían desarrollado leucemia 2  derivada de la inserción del retrovirus vector cerca de un oncogén. En 2007, cuatro de los diez pacientes habían desarrollado leucemia. El trabajo se está centrando ahora en corregir el gen sin activar un oncogén.

Los tratamientos para SCID han sido la única terapia génica exitosa; desde 1999, la terapia génica ha restaurado el sistema inmunológico de por lo menos 17 niños con dos formas de la enfermedad (ADA-SCID y X-SCID).

La ingeniería genética en humanos se está utilizando ya en pequeña escala para que las mujeres infértiles con defectos genéticos en susmitocondrias puedan tener hijos.3 Se utilizan óvulos humanos saludables de una segunda madre. El niño concebido de esta manera tiene la información genética de dos madres y un padre.3 Las modificaciones hechas son cambios en la línea germinal por lo que probablemente se transmitirán de generación en generación, y por tanto, son un cambio permanente en el genoma humano.3

Otras formas más avanzadas de ingeniería genética humana siguen siendo teóricas. La investigación de ADN recombinante se realiza generalmente para estudiar la expresión génica y varias enfermedades humanas. Algunas demostraciones drásticas de modificación genética se han hecho con ratones y otros animales, sin

Page 4: Trabajo de Nuevas Tecnologías-1

embargo, las pruebas en seres humanos generalmente se consideran fuera de los límites éticos. En algunos casos los cambios son causados generalmente por la extracción de material genético de un organismo y su traslado a otras especies.

Métodos[editar]

Somático[editar]

La ingeniería genética somática implica la adición de genes a células que no sean óvulos o espermatozoides. Por ejemplo, si una persona tiene una enfermedad causada por un gen defectuoso, un gen sano se podría agregar a las células afectadas para tratar el trastorno. A partir de entonces, es probable que tome la forma de terapia génica. La característica distintiva de la ingeniería somática es que no es hereditaria, es decir, el nuevo gen no sería trasladado a la descendencia del beneficiado.

Hay dos técnicas con la que los investigadores están experimentando:

Los virus son buenos para inyectar su carga de ADN en las células humanas y reproducirla. Al añadir

el ADN deseado en el ADN del virus no patógeno, una pequeña cantidad de virus reproducen el ADN

deseado y lo extienden por todo el cuerpo.

La fabricación de grandes cantidades de ADN, y empaquetarlo de alguna manera para inducir a las

células diana a aceptarlo, ya sea como adición a uno de los primeros 23 cromosomas, o como

un cromosoma artificial humano 24 independiente.

Línea germinal[editar]

La ingeniería de línea germinal implica cambiar los genes en óvulos, espermatozoides o embriones muy tempranos. Este tipo de ingeniería es hereditaria, lo que significa que los genes modificados aparecerían no sólo en cualquier niño que resulte del procedimiento, sino en todas las generaciones sucesivas. La ingeniería de línea germinal es controvertida debido a la capacidad de cambiar la naturaleza misma de la humanidad en formas fundamentales de acuerdo simplemente a los valores personales de los individuos sometidos o realizando el cambio en sus hijos. La ingeniería genética en seres humanos ha sido mal recibida por toda la comunidad científica debido a la negativa historia de laeugenesia a principios y mediados del siglo XX. Se utiliza en muchos hospitales actuales.

Usos[editar]

Existen dos tipos de ingeniería genética humana, la negativa y la positiva. La primera pretende eliminar los trastornos genéticos y la segunda tiene por objeto alterar la expresión fenotípica para obtener un individuo mejorado.

Ingeniería genética negativa (curas y tratamientos)[editar]

Cuando se tratan problemas que se originan por enfermedades genéticas, una solución es la terapia génica, también conocida como ingeniería genética negativa. Una enfermedad genética es una condición causada por el código genético del individuo como la espina bífida y elautismo.4 Cuando esto sucede, los genes pueden expresarse de manera desfavorables o no expresarse en absoluto, y esto generalmente conduce a más complicaciones.

La idea de la terapia génica es que un virus no patógeno u otro sistema de entrega pueda ser usado para insertar en el ADN una copia del gen sano dentro de las células del individuo vivo. La células modificadas se dividirían como las normales y cada división produciría células con el rasgo deseado. El resultado sería que él o ella tendrían la capacidad de expresar el rasgo que anteriormente estaba ausente, o al menos parcialmente. Esta forma de ingeniería genética podría ayudar a aliviar muchos problemas, como la diabetes, la fibrosis quística y otrasenfermedades genéticas.

Page 5: Trabajo de Nuevas Tecnologías-1

Ingeniería genética positiva (mejoras)[editar]

El potencial de la ingeniería genética de curar afecciones médicas abre la pregunta de qué es exactamente una afección. Algunos ven elenvejecimiento y la muerte como afecciones médicas y por tanto potenciales objetivos a encontrar solución con la ingeniería. Ellos ven potencialmente a la ingeniería genética humana como una herramienta clave para esto (ver Prolongación de la vida). La diferencia entre una cura y una mejora desde esta perspectiva no es mas que una cuestión de grado. Está comprobado que la ingeniería genética puede ser usada para cambiar drásticamente el genoma de las personas, lo cual podría hacer posible hacer que las personas regeneraran extremidades, cartílagos y otros órganos que no pueden regenerarse, incluso los extremadamente complejos como la columna vertebral (como algunos animales).- Puede también ser usada para hacer a las personas más fuertes, rápidas, inteligentes, o para incrementar la capacidad pulmonar entre otras cosas. Si un gen existe en la naturaleza, podría ser integrado en una célula humana. Desde este punto de vista, no hay diferencia cualitativa (sólo cuantitativa) entre, por ejemplo, una intervención genética para curar la atrofia muscular y una intervención genética para mejorar las funciones musculares, incluso cuando esos músculos están funcionando en o alrededor de la media humana (ya que también hay una media de función muscular para aquellos con un particular tipo de distrofia, que el tratamiento podría mejorar).- La tecnología para hacer estos tratamientos posibles y seguros ya están en desarrollo y serán posibles en pocos años.-

En la cultura popular y ciencia ficción[editar]

Maximum Ride  (serie de novelas) de James Patterson: Los protagonistas son seis niños humanos

que fueron inyectados con ADN de pájaro mientras estaban en el útero materno.

Gundam Seed  (anime): Situado en un mundo en el que seres humanos modificados genéticamente,

llamados «Coordinadores», han condenado al ostracismo y aislamiento a los seres humanos no

modificado, denominados «Naturales». Debido a las diferencias extremas de las habilidades mentales y

físicas entre los dos grupos, han surgido problemas raciales, económicos y políticos, culminando en

guerra. Gundam Seed trata asuntos como la animosidad provocada por los celos de los Naturales hacia

las habilidades de los Coordinadores, ambos grupos mirando al otro como formas de vida inferior, y el

surgimiento de facciones genocida en ambos lados. La serie explora estas cuestiones sobre todo desde

el punto de vista de un Coordinador protagonista que se encuentra luchando del lado de los Naturales,

así como su amigo de la infancia que se ha convertido en un miembro de la milicia Coordinadora,

ofreciendo una perspectiva de ambos lados del conflicto.

Trigun  (anime): Dos hermanos genéticamente mejorados pelean uno contra otro para salvar o

destruir una colonia de humanos en un nuevo planeta. Uno de los hermanos ve a los humanos como

inferiores y quiere eliminarlos, mientras el otro los ve como iguales y quiere salvarlos.

Gattaca  (película): Presenta la visión biopunk de una sociedad conducida por la nueva eugenesia.

Los hijos de las clases media y alta son seleccionados mediante diagnóstico genético preimplantacional

para asegurar que posean las mejores características hereditarias de sus padres.

Page 6: Trabajo de Nuevas Tecnologías-1

Oryx y Crake  (novela) de Margaret Atwood: Historia apocalíptica pseudodistópica, en la que uno de

los puntos principales del argumento implica la ingeniería genética de un nuevo tipo

de transhumanismo y la destrucción patológica del Homo sapiens.

BioShock  (videojuego): Los enemigos principales que el jugador encuentra en el transcurso del

juego son conocidos como splicers, llamados así por su manipulación genética (splicing). En el juego, un

componente llamado ADAM es responsable de la manipulación genética. El compuesto es extraído de

una especie de babosa marina, y actúa como una forma de cáncer aparentemente benigna, destruyendo

las células locales y reemplazándolas con células madre inestables. Todos los splicers se han vuelto

adictos al ADAM por lo que matarán a cualquiera para conseguirlo.

Old Man's War (en)  (novela) de John Scalzi: Para crear un ejército de soldados capaces de defender a

la raza humana de hordas interminables de alienígenas, las Fuerzas de Defensa Coloniales toman

reclutas de 75 años y les dan nuevos y jóvenes cuerpos capaces de proezas sobrehumanas.

Batman del futuro  (serie animada): En el episodio llamado Splicers y haciendo apariciones

posteriores en la serie, se presenta una nueva moda de empalme (splicing) de genes de animales con

propósitos cosméticos y de mejoramiento. Cuando las investigaciones revelan que el empalme

incrementa la agresividad de los consumidores, es prohibida en Ciudad Gótica, sólo encontrando lugar

después en el submundo criminal. Los Splicers más notables son Woof de los Jokerz (empalmado con

ADN de hiena) y Zander (empalmado con ADN de T-Rex), líder de KOBRA.

Deus Ex  (videojuego): Los protagonistas de ambos juegos en la serie están genéticamente

modificados por nanoimplantes (Deus Ex) y biomods (modificaciones biológicas en Invisible War). Estas

inyecciones nanobóticas alteran el genoma del huésped mejorándolo con nuevas habilidades que le

ayudarán a atravesar diferentes obstáculos en el juego. Tanto los protagonistas como los antagonistas

son biomodificados junto con otros personajes de apoyo y personajes neutrales.

Prototype  (videojuego): La historia se centra en una compañía de ingeniería genética llamada

Gentek. Los ingenieros de Gentek modificaron un virus-quimera para hacerlo diez veces más letal, al

«activar» partes previamente inactivas de un ADN concreto, y lo hicieron al punto de poder copiar a

aquellos infectados hasta el nivel genético. Los nuevos seres «infectados» tienen después control

completo y total sobre su estructura genética, permitiendo desarrollar la habilidad de cambiaformas

instantánea. Sin embargo, el juego revela que el único ser «infectado» capaz de hacer esto es una

persona ya muerta (o agonizante) cuando el virus entra en su sangre. El virus necesita entonces entrar

en un estado de emergencia para sobrevivir y no morir.

Page 7: Trabajo de Nuevas Tecnologías-1

El Internado  (Serie de televisión) Theodora Raüber es una experta en ingeniería genética, pero los

nazis la usan para clonar e inmunizar contra todas las enfermedades.

Sanctuary  Los Cinco se inyectan sangre de sanguinis vampire para cambiar sus habilidades.

El espectacular Hombre Araña (comic, serie animada) Peter Parker o mejor conocido como el

Hombre araña fue mordido por una araña genéticamente alterada, el Hombre de Arena fue

genéticamente alterado para estar hecho de arena y controlarla, el Dr. Connors una vez intento utilizar el

ADN de lagarto para recuperar su brazo perdido y un cazador llamado Kraven se alteró genéticamente

para convertirse en un híbrido Humano-Leon.

IntroducciónLa ingeniería genética es la tecnología o más concretamente la biotecnología de la manipulación y transferencia de ADN e un organismo a otro, que posibilita la creación de nuevas especies, la corrección de defectos genéticos y la fabricación de numerosos compuestos.En 1973 los investigadores Stanley Cohen y Herbert Boyer producen el primer organismo recombinando partes de su ADN en lo que se considera el comienzo de la ingeniería genética. En 1997 se clona primer mamífero, la Oveja Dolly.Actualmente la Ingeniería Genética está trabajando en la creación de técnicas que permitan solucionar problemas frecuentes de la humanidad como, por ejemplo, la escasez de donantes para la urgencia de trasplantes. En este campo se están intentando realizar cerdos transgénicos que posean órganos compatibles con los del hombre.El ADN es una base fundamental de información que poseen todos los organismos vivos, hasta el más simple y pequeño. Esta información está a su vez dividida en determinada cantidad espacios llamado loci (plural) o locus (singular); que es donde se encuentra insertado los genes, que varían dependiendo de la especie. A su vez, cada gen contiene la información necesaria para que la célula sintetice una proteína, por lo que el genoma y, en consecuencia, el proteoma, van a ser los responsables de las características del individuo.Los genes controlan todos los aspectos de la vida de cada organismo, incluyendo metabolismo, forma, desarrollo y reproducción. Por ejemplo, una proteína X hará que en el individuo se manifieste el rasgo de "pelo oscuro", mientras que la proteína Y determinará el rasgo de "pelo claro".Vemos entonces que la carga genética de un determinado organismo no puede ser idéntica a la de otro, aunque se trate de la misma especie. Sin embargo, debe ser en rasgos generales similar para que la reproducción se pueda concretar, ya que una de las propiedades más importantes del ADN, y por la cual se ha dicho que fue posible la evolución, es la de dividirse y fusionarse con el ADN de otro individuo de la misma especie para lograr descendencia diversificada.Otra particularidad de esta molécula es su universalidad. A raíz del concepto de gen, surgen algunas incógnitas: ¿Son compatibles las cargas genéticas de especies distintas? ¿Puede el gen de una especie funcionar y manifestarse en otra completamente distinta? ¿Se puede aislar y manipular el ADN?

Ingeniería GenéticaTodo organismo, aún el más simple, contiene una enorme cantidad de información. Esa información se repite en cada una de sus células organizada en unidades llamadas genes, los cuales están formados por ADN. Los genes controlan todos los aspectos de la vida de cada organismo, incluyendo metabolismo, forma, desarrollo y reproducción. De ellos depende la continuidad de la vida, porque constituyen el enlace esencial entre generaciones. Esta transmisión de información genética de los padres a los hijos se denomina herencia. Desde principios de siglo, la ciencia de la Ingeniería Genética ha experimentado notables avances.La Ingeniería Genética es un término que abarca distintos caminos para cambiar el material genético. El ADN (código en el organismo vivo) es el cual contiene toda la información almacenada en una larga cadena de una molécula química que determina la naturaleza del organismo así sea una amiba, un árbol de pino, una vaca o un hombre y el cuál caracteriza las particularidades individuales.A diferencia de los gemelos el mapa genético de cada uno de nosotros es único. Los genes individuales son secciones particulares de esta cadena, quienes determinan las características y funciones de nuestro cuerpo.Los defectos de los genes individuales pueden causar mal funciones en el metabolismo del cuerpo, y es el origen de muchas enfermedades genéticas.En la ingeniería genética se busca el cocimiento de lo que son los cada uno de los genes de un mapa genético. Esto no está tan lejos como parece, la capacidad de eliminar el factor azar de nuestro perfil, genético esta cada vez mas cerca. Según Frec Anderson (60 años), pionero de la terapia genética, "ya existe toda la base científica necesaria, pero no tendremos hasta dentro de 10 o 5 años la eficiencia y seguridad para llevar a cabo transferencias genéticas en forma ética".

Page 8: Trabajo de Nuevas Tecnologías-1

Leer más: http://www.monografias.com/trabajos68/ingenieria-genetica/ingenieria-genetica.shtml#ixzz31LhXnz1k

Otro factor limitante es que todavía el banco de genes no tiene "depositados" a la espera de clientes todos los complejos conjuntos de genes que determinan la inteligencia, el buen comportamiento y la higiene mental perfecta. Aclaro que lo ideal de recurrir a la ingeniería genética es que la utilicen para prevenir o corregir enfermedades serias y no para tener un hijo más inteligente, o para que sea alto y de ojos celestes. El problema es quela ciencia sigue progresando a velocidad de un tren bala, llegando a menudo a una estación determinada mucho antes de que hayan podido analizarse y comprenderse a fondo todas las consecuencias derivadas de los adelantos.Los descubrimientos en materia genética son asunto de todos los días, hay bancos de datos que poseen la codificación parcial de más de la mitad de los genes humanos. Millones de nuevas entradas del código genético ingresan al banco público de genes del Centro Nacional de Información Biotecnológica.La única terapia genética permitida hoy para su aplicación en seres humanos es la vinculada a las enfermedades.La ingeniería genética puede definirse como "La manipulación deliberada de la información genética, con miras al análisis genético o al mejoramiento de una especie".Con el descubrimiento de la estructura del material genético, en 1953, nace la biología molecular y con ello se inicia una nueva etapa en la historia de la biología. El año de 1970 marca otra etapa importante: el comienzo de la manipulación enzimática del material genético, y por consiguiente, la aparición de la ingeniería genética molecular, que constituye la más reciente evolución de la manipulación genética. Los procedimientos que se utilizan reciben el nombre de métodos del ADN recombinante o clonación molecular del ADN. En el pasado se utilizaban en forma empírica los sistemas biológicos existentes, hoy ya no solamente se seleccionará uno de esos sistemas para llevar a cabo un proceso, sino que se diseñarán genéticamente atendiendo a la posibilidad real de manejar su información genética y la de incorporarles la de otros organismos.La ingeniería genética de plantas ofrece la posibilidad de modular la expresión de genes específicos, que son importantes para un cierto proceso metabólico. Es posible incrementar la expresión de un determinado gene al transformar plantas con un gene quimérico con un promotor fuerte; o disminuir la expresión usando la tecnología del RNA en sentido inverso (anti-RNA) y así, alterar cuantitativamente el control de flujo de un proceso específico.

Historia de la Ingeniería Genética. 1.000 a.C: Los babilonios celebran con ritos religiosos la polinización de las palmeras.. 323 a.C: Aristóteles especula sobre la naturaleza de la reproducción y la herencia.. 100-300: se escriben en la India textos metafóricos sobre la naturaleza de la reproducción humana.. 1676: se confirma la reproducción sexual en las plantas.. 1677: se contempla el esperma animal a través del microscopio.. 1838: se descubre que todos los organismos vivos están compuestos por células.. 1859: Darwin hace pública su teoría sobre la evolución de las especies.. 1866: Mendel describe en los guisantes las unidades fundamentales de la herencia (que posteriormente recibirán el nombre de genes).. 1871: se aísla el ADN en el núcleo de una célula.. 1883: Francis Galton acuña el término eugenesia.. 1887: se descubre que las células reproductivas constituyen un linaje continuo, diferente de las otras células del cuerpo.. 1908: se establecen modelos matemáticos de las frecuencias génicas en poblaciones mendelianas.. 1909: las unidades fundamentales de la herencia biológica reciben el nombre de genes.. 1924: la Ley de Inmigración en EE.UU. limita la entrada al país sobre la base del origen racial o étnico.. 1925: se descubre que la actividad del gen está relacionada con su posición en el cromosoma.. 1927: se descubre que los rayos X causan mutaciones genéticas.. 1931: treinta estados de los EE.UU. tienen leyes de esterilización obligatoria.. 1933: la Alemania nazi esteriliza a 56.244 "defectuosos hereditarios".. 1933-45: el holocausto nazi extermina a seis millones de judíos por medio de su política eugenésica.. 1943: el ADN es identificado como la molécula genética.. 1940-50: se descubre que cada gen codifica una única proteína.. 1950: Se logra congelar con éxito semen de toro a 79 grados bajo cero para su transporte e inseminación de vacas.. 1952: Thomas King y Robert Briggs clonan ranas a partir de células indiferenciadas.. 1953: se propone la estructura en doble hélice del ADN.. 1956: son identificados 23 pares de cromosomas en las células del cuerpo humano.. 1962: John Gurdon clona también ranas, pero a partir de células de renacuajos adultos.. 1966: se descifra el código genético completo del ADN.. 1972: se crea la primera molécula de ADN recombinante en el laboratorio.. 1973: tienen lugar los primeros experimentos de ingeniería genética en los que genes de una especie se introducen en organismos de otra especie y funcionan correctamente.. 1973: Stanley Cohen y Herbert Boyer elaboran la técnica de clonación de genes.. 1975: la conferencia de Asilomar evalúa los riesgos biológicos de las tecnologías de ADN recombinante, y aprueba una moratoria de los experimentos con estas tecnologías.. 1975: se obtienen por primera vez los hibridomas que producen anticuerpos monoclonales.

Page 9: Trabajo de Nuevas Tecnologías-1

. 1976: se funda en EE.UU. Genentech, la primera empresa de ingeniería genética.

. 1977: mediante técnicas de ingeniería genética se fabrica con éxito una hormona humana en una bacteria.

. 1977: los científicos desarrollan las primeras técnicas para secuenciar con rapidez los mensajes químicos de las moléculas del ADN.. 1978: se clona el gen de la insulina humana.. 1978: Nace Baby Louise, el primer bebé concebido mediante fecundación in vitro.. 1980: el Tribunal Supremo de los EE.UU. dictamina que se pueden patentar los microbios obtenidos mediante ingeniería genética.. 1981: primer diagnóstico prenatal de una enfermedad humana por medio del análisis del ADN.. 1982: se crea el primer ratón transgénico (el "superratón"), insertando el gen de la hormona del crecimiento de la rata en óvulos de ratona fecundados. Científicos de la Universidad de Seattle, San Diego y California, obtienen un ratón transgénico portador del gen de la hormona del crecimiento de la rata.. 1982: se produce insulina utilizando técnicas de ADN recombinante.. 1983: se inventa la técnica PCR, que permite replicar (copiar) genes específicos con gran rapidez.. 1984: creación de las primeras plantas transgénicas.. 1984: Primer nacimiento de un bebé a partir de un embrión congelado.. 1985: se inicia el empleo de interferones en el tratamiento de enfermedades víricas.. 1985: se utiliza por primera vez la "huella genética" en una investigación judicial en Gran Bretaña.. 1985: El laboratorio de Ralph Brinster obtiene cerdos transgénicos que producen la hormona humana del crecimiento.. 1986: se autorizan las pruebas clínicas de la vacuna contra la hepatitis B obtenida mediante ingeniería genética.. 1987: propuesta comercial para establecer la secuencia completa del genoma humano (proyecto Genoma), compuesto aproximadamente por 100.000 genes. Primera cepa de ratones portadores de genes humanos.. 1987: comercialización del primer anticuerpo monoclonal de uso terapéutico.. 1987: PPL Therapeutic consigue una oveja transgénica que produce en la leche la proteína humana alfa-1 antitripsina.. 1988: primera patente de un organismo producido mediante ingeniería genética.. 1989: comercialización de las primeras máquinas automáticas de secuenciación del ADN.. 1990: primer tratamiento con éxito mediante terapia génica en niños con trastornos inmunológicos ("niños burbuja"). Se ponen en marcha numerosos protocolos experimentales de terapia génica para intentar curar enfermedades cancerosas y metabólicas.. 1991: Steve Rosenberg realiza la primera terapia génica en pacientes con melanoma maligno.. 1992: Primera inyección intracitoplasmática nuclear de espermatozoides.. 1994: se comercializa en California el primer vegetal modificado genéticamente (un tomate) y se autoriza en Holanda la reproducción del primer toro transgénico.. 1995: se completan las primeras secuencias completas de genomas de organismos: se trata de las bacterias Hemophilus influenzae y Mycoplasma genitalium.. 1995: Ian Wilmut y Keith Campbell obtienen a Megan y Morag, dos corderos engendrados por transferencia nuclear de células embrionarias.. 1995: Nace el primer bebé concebido a partir de un ovocito y una espermátida.. 1996: por primera vez se completa la secuencia del genoma de un organismo eucariótico, la levadura cervecera "Saccharomyces cerevisiae". Por otra parte, el catálogo de genes humanos que Victor McKusick y sus colaboradores de la Universidad John Hopkins actualizan cada semana contiene ya más de cinco mil genes conocidos. El proyecto Genoma, coordinado por HUGO (Human Genome Organization), avanza a buen ritmo.. 1996: Primer xenotrasplante de un corazón de cerdo humanizado a un babuino.. 1997: Clonación del primer mamífero, una oveja llamada "Dolly". Ian Wilmut presenta a Dolly.. 1997: Don Wolf consigue los primeros clones de macacos a aprtir de células de diferentes embriones.. 1998: El Doctor Richard Seed anuncia su intención de clonar bebés humanos.. 1998: Nacen George y Charley, una pareja de terneros engendrados a partir de núcleos de células embrionarias.. 2001: Gran Bretaña permite la clonación de embriones humanos menores de 14 días.. 2001: Se conoce de forma precisa la secuencia completa y ensamblada del genoma humano.

Aplicaciones de la Ingeniería GenéticaLos organismos transgénicos han pasado a ocupar una posición central en la biotecnología moderna, porque permiten hacer modificaciones muy específicas del genoma que vale la pena analizar con detalle, debido a sus importantes aplicaciones presentes y futuras.Las aplicaciones de la ingeniería genética son aplicables a tratamientos médicos y son la solución a corto y largo plazo de determinadas enfermedades genéticas con la producción de sustancias diversas de origen transgénico. A continuación mostramos algunas de las sustancias o tratamientos específicos obtenidos por estos mecanismos de gran interés para la salud humana:- Fabricación de proteínas o péptidos de interés sanitario.- Fabricación de sustancias hormonales en la leche de vaca.- Sustancias paliativas del dolor.- Xenotransplantes y transplantes de tejidos.- Solución a problemas cardiacos.- Vías de solución a el Dengue.- Tratamientos contra el cáncer.- Diágnostico y solución de enfermedades hereditarias: hemofilia, anemia falciforme, retraso mental, fibrosis quística, hipotiroidismo congénito,esquizofrenia, maniacodepresión, hidrocefalia, microcefalia, labio leporino y espina bífida.- Tratamientos contra el SIDA.- Fabricación de vacunas transgénicas.- Fabricación de antibióticos.

Ventajas e InconvenientesUna bacteria diseñada por la compañía japonesa Showa Denko mediante técnicas de ingeniería genética desarrolló aspectos que no habían sido previstos causando la muerte a 37 personas y daños permanentes a más de 1500.

Page 10: Trabajo de Nuevas Tecnologías-1

A principios de los años setenta se descubrió una enzima capaz de cortar segmentos específicos de las cadenas de ácidos nucleícos (ADN). Estos ácidos guardan el material genético hereditario de los seres vivos. Posteriormente se desarrollaron técnicas para aislar genes, reintroducirlos en células vivas y combinar los genes de diferentes organismos.. Ventajas: El principal avance de la Ingeniería Genética consiste en la capacidad para crear especies nuevas a partir de la combinación de genes de varias existentes, combinando también por lo tanto sus características. Cultivos con genes de insectos para que desarrollen toxinas insecticidas o tomates con genes de pez para retrasar la marchitación han dejado hace tiempo de ser ciencia-ficción para constituir una realidad en nuestros días.Permitir el cultivo de hortalizas en áreas desérticas hasta ahora estériles o aumentar el tamaño de los frutos cultivados son algunos de los adelantos que la utilización de este tipo de técnicas puede aportar a la Humanidad, con los logros que supone hacia la erradicación del hambre en el Mundo. Lo que no se ha definido todavía es cómo compatibilizar estos objetivos con los intereses económicos de las empresas de biotecnología que los desarrollan.Los expertos advierten que detrás de estas mejoras y nuevas aplicaciones se esconden también riesgos y peligros de notable importancia.. Inconvenientes: La manipulación genética de animales para potenciar la producción de sustancias aprovechables industrialmente, o para aumentar su efectividad depredadora contra insectos y plagas, son otras de las aplicaciones con las que se está trabajando, así como aumentar la resistencia de los peces al frío, hacerles crecer más deprisa o ayudarles a resistir algunas enfermedades.El negocio de la ingeniería genética está en manos de las grandes multinacionales agroquímicas y farmacéuticas, como Monsanto, Enimont, Du Pont, Ciba-Geigy, ICI y Sandoz. Sus intereses comerciales están haciendo a los investigadores intervenir directamente en procesos biológicos que apenas hemos empezado a comprender, y mucho menos a controlar.Alterar significativamente la evolución de las especies puede tener consecuencias imprevisibles en un equilibrio ecológico por otra parte ya muy dañado y de difícil solución. Las técnicas de ingeniería genética alteran todas las limitaciones que la propia naturaleza pone para la relación entre organismos de especies alejadas o no emparentadas.El desarrollo de estas ventajas competitivas por parte de los organismos transgénicos, como mayor resistencia a la salinidad, a la sequía o a las bajas temperaturas, puede ocasionar la invasión por parte de estas especies de hábitats que no les son propios y cuyo equilibrio se vería entonces amenazado al desplazar a otras especies o favorecer su extinción.Existen ecosistemas especialmente frágiles y especies de las que depende la subsistencia de miles de personas, en ocasiones como alimento básico especialmente en el Tercer Mundo, que podrían verse desplazadas al reducirse la diversidad biológica.La introducción de la gripe tras el descubrimiento de América diezmó las poblaciones indígenas, la importación del conejo en Australia ocasionó un problema que aún no ha sido del todo resuelto. Son sólo algunos ejemplos de lo que las estadísticas definen con mayor precisión: se calcula que al menos el 10 % de este tipo de introducciones han tenido un efecto negativo sobre el ecosistema.Se han desarrollado plantas con capacidades insecticidas que pueden amenazar la existencia de especies de insectos y hongos beneficiosos e incluso imprescindibles para el desarrollo biológico. Insectos diseñados específicamente para controlar el desarrollo de otros insectos pueden mutar o combinarse con otras especies produciendo resultados imprevisibles.La modificación genética de virus, cuya capacidad de mutación y combinación los hace ya de por sí peligrosamente imprevisibles, puede dar lugar a la aparición de nuevas enfermedades o la transformación de otras ya existentes modificando sus vías de contagio o las especies a las que pueden afectar.Las condiciones ambientales reales, fuera del laboratorio, han demostrado ser fundamentales en la evolución de estas nuevas especies. Aspectos como la clase de suelo, las temperaturas o la humedad alteran significativamente y de forma imprevisible la función de un gen, anulando sus características o desarrollando otras nuevas.

Ingeniería Genética en la agriculturaMediante la ingeniería genética han podido modificarse las características de gran cantidad de plantas para hacerlas más útiles al hombre, son las llamadas plantas transgénicas. Las primeras plantas obtenidas mediante estas técnicas fueron un tipo de tomates, en los que sus frutos tardan en madurar algunas semanas después de haber sido cosechados.Recordando que la célula vegetal posee una rígida pared celular, lo primero que hay que hacer es obtener protoplastos (los protoplastos son células desprovistas de pared celular, que se consigue empleando enzimas que destruyen la lámina media y desorganizan la parte de celulosa).Vamos a ver las técnicas de modificación genética en cultivos celulares. Estas células pueden someterse a tratamientos que modifiquen su patrimonio genético. Las técnicas se clasifican en directas e indirectas.- Entre las técnicas indirectas cabe destacar la transformación de células mediada por Agrobacterium tumefaciens. Esta bacteria puede considerarse como el primer ingeniero genético, por su particular biología.Este fenómeno natural es empleado para utilizar a la bacteria Agrobacterium tumefaciens como vector de los genes que se desean introducir en una célula vegetal, con lo que se transforma dicha célula, la cual puede regenerar, por micropropagación, una planta entera que será transgénica.- Entre las técnicas directas, se pueden citar la electroporación, microinyección, liposomas y métodos químicos.

Plantes transgénicasEntre los principales caracteres que se han transferido a vegetales o se han ensayado en su transfección, merecen destacarse:- Resistencia a herbicidas, a insectos y a enfermedades microbianas.Ya se dispone de semillas de algodón, que son insensibles a herbicidas. Para la resistencia a los insectos se utilizan cepas de Bacillus thuringiensis que producen una toxina (toxina - Bt) dañina para las larvas de muchos insectos, de modo que no pueden desarrollarse sobre las plantas transgénicas con este gen. Respecto a los virus se ha demostrado que las plantas transgénicas con el gen de la proteína de la cápsida de un virus, son resistentes a la invasión de dicho virus.

Page 11: Trabajo de Nuevas Tecnologías-1

- Incremento del rendimiento fotosintéticoPara ello se transfieren los genes de la ruta fotosintética de plantas C4 que es más eficiente.- Mejora en la calidad de los productos agrícolasTal es el caso de la colza y la soja transgénicas que producen aceites modificados, que no contienen los caracteres indeseables de las plantas comunes.- Síntesis de productos de interés comercialExisten ya plantas transgénicas que producen anticuerpos animales, interferón, e incluso elementos de un poliéster destinado a la fabricación de plásticos biodegradables- Asimilación de nitrógeno atmosféricoAunque no hay resultados, se ensaya la transfección del gen nif responsable de la nitrogenasa, existente en microorganismos fijadores de nitrógeno, y que permitiría a las plantas que hospedasen dicho gen, crecer sin necesidad de nitratos o abonos nitrogenados, aumentando la síntesis de proteínas de modo espectacular.

¿Cómo se crea una planta transgénica?1 - Utilizando las enzimas de restricción se aísla el elemento responsable del efecto que desee lograrse, por ejemplo la superior resistencia a los herbicidas.2 - El gen se inserta en un anillo de ADN autoreplicable junto con un gen de resistencia a antibióticos con el que posteriormente se seleccionarán las plantas donde la implantación ha tenido éxito.3 - El anillo de ADN autoreplicable, o plásmido, se introduce en un huésped en el que se replicará utilizando enzimas del propio huésped, que puede ser un tipo de bacteria.4 - Los plásmidos replicados se introducen en una bacteria adecuada para "contagiar" al tipo de planta que se desea modificar.5 - Estas bacterias transmiten a células de la planta, criadas en el laboratorio, el plásmido modificado, alterando el genoma del original e incorporándole las nuevas características.6 - Utilizando hormonas se regeneran plantas completas a partir de las células modificadas.7 - El tratamiento con antibióticos selecciona las plantas en las que la modificación ha tenido éxito.

Alimentos transgénicosEl hombre lleva varios miles de años modificando los vegetales que utiliza como alimento. Tal es el caso de muchas frutas que son productos de mezclas de diferentes plantas. Sin embargo la ingeniería genética permite ahora llevar a cabo en pocos años y en forma controlada modificaciones que antes costaban décadas de trabajo.En sus comienzos, la ingeniería genética se utilizó para producir sustancias de uso farmacéutico, como la insulina, vía la modificación genética de microorganismos. Con los posteriores desarrollos aquellas investigaciones preliminares se aplicaron y derivaron en la obtención de vegetales y animales modificados genéticamente de forma tal de mejorar sus propiedades implícitas. Los objetivos y mejoras principales a los que se apuntaba eran los de obtener mayor vida comercial en los productos, resistencia a condiciones ambientales más agresivas (heladas, sequías, distintos tipos de suelos), resistencia a herbicidas más fuertes y potenciar la autodefensa contra plagas e insectos.El primer alimento, modificado por la ingeniería, en ser producido para el consumo masivo fue el tomate Flavr Svr. Los alimentos que posteriormente se modificaron fueron la soja transgénica, en la cual se modificó su constitución para hacerla más resistente a herbicidas y el maíz, al que se le modificó para resistir determinados insectos y generar mayores rindes por cultivo y cosecha.Desde muchos puntos de vista, las perspectivas de esta tecnología son vastamente amplias por lo que actualmente existen varias decenas de otros productos listos para ser comercializados. Sin embargo, y aún a pesar de las amplias fronteras que esta ciencia tiene, debido a diversas razones  la cantidad de productos disponibles en el mercado es muy reducida y acotada.Como contracara de este tremendo avance tecnológico existe una segunda voz: La que se mantiene en contra de la manipulación genética de los alimentos y que enuncia que esta atenta contra la salud de la población. Estas voces de protesta se originan en que existen campos con diversas dudas concernientes al tema, que la ciencia no ha develado completamente.Por esto, es que diversas organizaciones ambientalistas y ecologistas claman en favor de la agricultura biológica y orgánica, y promueven los alimentos de calidad que no aplican  modificaciones o alteraciones genéticas, o utilizan agroquímicos y/o agrotóxicos para su crecimiento.Dada la corta historia de este tremendo avance tecnológico, existe poca legislación que controle o regule la utilización de esta ciencia. Al respecto, una de las pocas condiciones que se deben cumplir son las de respetar una directiva europea de 1997 que obliga a que los productos transgénicos: - Demuestren ser necesarios y útiles, - Sean seguros para la salud humana y el medio ambiente, - Que sus características sean las declaradas y se mantengan a través del tiempo, - Que posean un etiquetado detallado que especifique si el producto está modificado genéticamente.La modificación genética consiste en el proceso de transferir artificialmente la información específica de un tipo de organismo a otro. Por ejemplo: De un pez a un tomate, o de un animal a una planta. (y la alternativa de combinaciones que pueda imaginarse y que pueda servir para algún fin particular)¿Cuales son las razones de lograr tal intercambio? Transferir las cualidades deseables de un organismo a otro.¿Existe necesidad de alcanzar tal objetivo? Actualmente se puede producir suficiente comida sin recurrir a la utilización de esta tecnología. Por esto, los motivos para la modificación genética están principalmente basados en razones comerciales y políticas que no siempre consideran la salud y la nutrición, dados los graves potenciales peligros que su aplicación puede implicar.Los ingredientes (sustancias transgénicas) más habituales y a tener en cuenta al momento de leer una etiqueta de alimentos son los siguientes:

Lecitina de soja

Proteína vegetal texturizada

Page 12: Trabajo de Nuevas Tecnologías-1

Proteína texturada de soja

Dextrosa

Aceite vegetal hidrogenado

Emulsificante - proteína de soja aislada,

Harina de soja

Actualmente la mayoría de los productos contienen bases de soja o lecitina de soja, y suelen aparecen camuflados bajo la inscripción 322.Por ejemplo, en la República Argentina, la zona donde existen cultivos de semillas y productos genéticamente alterados es la de la pampa húmeda y sobre el total de la producción de su zona, el proporcional de productos transgénicos es el siguiente:

Soja: 85%

Maíz: 20%

Algodón: 0,9%

Las aplicaciones de la ingeniería genética reconocidas para obtener productos de características mejoradas son las siguientes:Apio - Zanahoria: - Prolongar el caroteno crujiente en el momento de ser ingerido.Achicoria (radicheta): - Incremento de la dulzura en su sabor.Café: - Mejorar la resistencia al ataque de insectos, - Incrementar el rinde productivo. (Rendimiento de la plantación y la cosecha), - Reforzar el aroma, - Reducir el contenido de cafeína.Maíz: - Incrementar la resistencia al ataque de insectos.Papa: - Potenciar su resistencia a ser afectada por virus, - Aumentar su resistencia al ataque de insectos, - Reducir su capacidad de absorción de aceites (durante la fritura), - Obtener variedades mas dulces,Soja: - Reducir la necesidad de utilización de fertilizantes, - Favorecer su resistencia a herbicidas mas selectivos, - Incrementar su aporte nutritivo aumentando su valor proteico, - Eliminar los componentes causantes de alergias.. Uva: - Conseguir nuevas variedades sin semillas.

ClonaciónHay que diferenciar el uso de la palabra clonación en distintos contextos de la biología:. Si nos referimos al ámbito de la Ingeniería Genética, clonar es aislar y multiplicar en tubo de ensayo un determinado gen o, en general, un trozo de ADN. Sin embargo, Dolly no es producto de Ingeniería Genética.. En el contexto a que nos referimos, clonar significa obtener uno o varios individuos a partir de una célula somática o de un núcleo de otroindividuo, de modo que los individuos clonados son idénticos o casi idénticos al original.En los animales superiores, la única forma de reproducción es la sexual, por la que dos células germinales o gametos (óvulo y espermatozoide) se unen, formando un zigoto (o huevo), que se desarrollará hasta dar el individuo adulto. La reproducción sexual fue un invento evolutivo (del que quedaron excluidas las bacterias y muchos organismos unicelulares), que garantiza que en cada generación de una especie van a aparecer nuevas combinaciones de genes en la descendencia, que posteriormente será sometida a la dura prueba de la selección y otros mecanismos evolutivos. Las células de un animal proceden en última instancia de la división repetida y diferenciación del zigoto.Las células somáticas, que constituyen los tejidos del animal adulto, han recorrido un largo camino "sin retorno", de modo que, a diferencia de las células de las primeras fases del embrión, han perdido la capacidad de generar nuevos individuos y cada tipo se ha especializado en una función distinta (a pesar de que, salvo excepciones, contienen el mismo material genético).El primer experimento de clonación en vertebrados fue el de Briggs y King (1952), en ranas. En los años 70, Gurdon logró colecciones de sapos de espuelas (Xenopus laevis) idénticos a base de insertar núcleos de células de fases larvarias tempranas en ovocitos (óvulos) a los que se había despojado de sus correspondientes núcleos. Pero el experimento fracasa si se usan como donadoras células de ranas adultas.Desde hace unos años se vienen obteniendo mamíferos clónicos, pero sólo a partir de células embrionarias muy tempranas, debido a que aún no han entrado en diferenciación (y por lo tanto poseen la propiedad de pluripotencia). No es extraño pues el revuelo científico cuando el equipo de Ian Wilmut, del Instituto Roslin de Edimburgo comunicó que habían logrado una oveja por clonación a partir de una célula diferenciada de un adulto. Esencialmente el método (que aún presenta una alta tasa de fracasos) consiste en obtener un óvulo de oveja, eliminarle su núcleo, sustituirlo por un núcleo de célula de oveja adulta (en este caso, de las mamas), e implantarlo en una tercera oveja que sirve como "madre de alquiler" para llevar el embarazo. Así pues, Dolly carece de padre y es el producto de tres "madres": la donadora del óvulo contribuye con el citoplasma (que contiene, además mitocondrias que llevan un poco de material genético), la donadora del núcleo (que es la que aporta la inmensa mayoría del ADN), y la que parió, que genéticamente no aporta nada.Científicamente se trata de un logro muy interesante, ya que demuestra que, al menos bajo determinadas circunstancias es posible "reprogramar" el material genético nuclear de una célula diferenciada (algo así como volver a poner a cero su reloj, de modo que se comporta como el de un zigoto). De este modo, este núcleo comienza a "dialogar" adecuadamente con el citoplasma del óvulo y desencadena todo el complejo proceso del desarrollo intrauterino.

Fecundación y desarrollo embrionarioDesarrollo de las células germinales femeninas: es un proceso muy prolongado, que arranca de la fase fetal, y que concluye en la adulta. 1 - Células primordiales germinales: se originan en la cresta germinal. Al recibir ciertas señales de las células del plexo dorsal de la cresta germinal, las células germinales primordiales entran en meiois, y pasan de diploides a haploides. Se detienen en diplotene hasta la fase adulta (hasta 50 años). En el ovario fetal los ovocitos primarios están rodeados y nutridos por una capa de células foliculares. Antes de la pubertad hay muerte programada de ovocitos, y desde la pubertad, algunos de estos ovocitos seguirán su desarrollo.

Page 13: Trabajo de Nuevas Tecnologías-1

2 - Fase de crecimiento: No hay cambios en el ciclo celular, pero existe una gran actividad transcripcional, con aumento de 200 veces del tamaño del ovocito. Parte del ARN queda "silente", acomplejado con proteínas. Estos dos tipos de macromoléculas serán las esenciales para asegurar las primeras fases del zigoto y del embrión. Formación de la zona pelúcida (ZP), que separa al ovocito de las células foliculares.3 - Fase de diferenciación: Durante las 48 horas previas a la fecundación las gonadotrofinas actúan sobre el folículo, cuyas células somáticas responden produciendo señales que reprograman al ovocito. Se usa el ARN almacenado en la fase previa- Las señales intrafoliculares iniciales para la maduración del ovocito provocan el paso desde G2 hasta M de la meioisis.- Reaparece el ARNm enmascarado, y se traduce. Movimientos de orgánulos - citoplásmicos.En la fecundación se unen los gametos femeninos (óvulo) y masculino (espermatozoide). Al entrar el espermatozoide, se activa el óvulo, que termina su diferenciación: final de la meiosisZigoto (célula huevo): finaliza la meiosis del óvulo, con eliminación del segundo cuerpo polar. Los procesos que ocurren durante las primeras horas son:- Se duplica el ADN de los genomas haploides de cada gameto- Singamia: aproximación de los pronúcleos de cada gameto, pero sin fusión nuclear.- Primera división mitótica: los cromosomas quedan engarzados en el huso mitótico, y las cromátidas hermanas se separan.El embrión se va dividiendo, originando duplicación de las células (blastómeros):- 2 células (a las 26 horas)- 4 células (38 h)- 8 células (46 h)- 16 células (68 h)Mórula: fase de 12-16 blastómeros (3º-4º día). Aspecto de pelota compacta, antes de la entrada en el útero.Blastocisto: hueco interior, con la masa celular interna (estructuras embrionarias) y capas externas (trofectodermo)Implantación: comienza al final de la 1ª semana, y termina al final de la 2ª.Fase embrionaria dura hasta la 8ª-9ª semana, cuando quedan establecidos los rudimentos de todos los órgano.- Gástrula (15º-18º día): tres capas germinales (ecto, meso y endodermo). La actuación de ciertos productos génicos (de tipo Noggin) provoca la inducción neural, que genera la placa neural (primordio de la cuerda espinal y del cerebro).- Durante el 2º mes de embarazo, tras adquirir el "diseño general" el desarrollo conduce a la diferenciación general del sistema. Organogénesis hasta el 3º mes.- El resto del embarazo: sigue la diferenciación-maduración. Desarrollo fetal (3º mes hasta el nacimiento).

Aspectos relevantes para el trasplante de núcleosEl trasplante de núcleos somáticos a óvulos enucleados tiene la intención de lograr lo que hacen de modo natural los dos pronúcleos del ovocito recién fertilizado.Cuando entra el espermatozoide, éste se encuentra en fase Go, mientras que el ovocito está en la segunda metafase meiótica (MII). Luego se descondensa el núcleo del espermatozoide y se sincronizan ambos ciclos celulares, ingresando al mismo tiempo en la fase S (síntesis de ADN).- Fase de diferenciación: Durante las 48 horas previas a la fecundación las gonadotrofinas actúan sobre el folículo, cuyas células somáticas responden produciendo señales que reprograman al ovocito. Se usa el ARN almacenado en la fase previa.-  En la activación del ovocito por el espermatozoide intervienen aumentos cíclicos de Ca++ intracelular.- Ello provoca el descenso de actividad de la MPF-quinasa (por degradación de la ciclina B y fosforilación de cdc2).- Ello inhibe las moléculas bloqueadoras de la metafase II, lo que hace que el óvulo termine la mitosis.- Se desenmascaran más ARNm, que se traducen.Al introducir un núcleo somático, tenemos que lograr sincronizarlo con la fase del ovocito y "remedar" los cambios fisiológicos arriba citados. Algunos de los protocolos artificiales estimulan la entrada de Ca al ovocito.- La electroestimulación provoca un aumento de Ca++ único, pero no las oleadas de Ca++.- Se mejora con pulsos de corriente o por ionomicina.- Pero aún necesitamos mejorar para simular las condiciones naturales.Requisitos de ciclo celular:- Sincronización núcleo-citoplasma.- Periodo de reprogramación nuclear, para su adaptación al entorno citoplásmico.- Si se usan núcleos de células diferenciadas, deben "desdiferenciarse" para lograr la totipotencia. Ello solo puede conseguirse con el citoplasma meiótico en fase M. El grupo de Wilmut (1996) concluyó que el éxito aumenta con núcleos somáticos en fase G0 y citoplasmas en fase MII.En el reciente trabajo sobre la clonación de ratones las condiciones mejores fueron:- La activación se realiza dejando un cierto tiempo (6 horas) tras la inyección del núcleo donante en G0.- La activación se induce con estroncio y citocatalasina B (con supresión de citoquinesis). Aunque esto parece paradójico en relación con otros informes, la exposición prolongada de los núcleos entrantes a un ambiente rico en MPF causa una duradera condensación de cromosomas (en ausencia de síntesis de ADN), y puede facilitar los cambios nucleares que son esenciales para el desarrollo e implantación del blastocisto.- Puede que influya también el uso de una unidad de micropipeta de piezo-impacto, que permite que las manipulaciones del oocito y del embrión sean rápidas y eficaces, reduciendo así el trauma de otros métodos (electrofusión, Virus Sendai o PEG).Pero incluso el "dogma" de la necesidad de usar células quiescentes como donantes parece que se tambalea: la reciente clonación de ratones usando células madre en fase G1 o en post-fase S (fases G2 y M) así lo indica. Recientemente, el grupo de PPL-Roslin, ha logrado cinco cerdos clónicos mediante un nuevo procedimiento de doble transferencia nuclear, a partir de células no.Por ahora, parece que no todas las células somáticas son susceptibles de poder usarse como donantes de núcleos para la clonación. Se desconoce si se trata de un problema biológico o meramente técnico. Si es biológico, habrá que investigar qué es lo que hace que algunas células sean reprogramables y otras no, y cuál es la naturaleza de la reprogramación (obviamente debe haber activación y represión de genes).

Gemelos y mellizos- Gemelos dizigóticos (no idénticos): se originan por la fecundación de dos o más óvulos por distintos espermatozoides. Tasa de 0.6-1-1%nacimientos. Gran heredabilidad e incidencia de factores ambientales (nutrición, edad, etc.)- Gemelos monozigóticos (idénticos): por fisión de un embrión temprano. 0.3-0.4% de nacimimientos. Tipos de clonaciónTipos de clonación según el método:

Page 14: Trabajo de Nuevas Tecnologías-1

Partición (fisión) de embriones tempranos: analogía con la gemelación natural. Los individuos son muy semejantes entre

sí, pero diferentes a sus padres. Es preferible emplear la expresión gemelación artificial, y no debe considerarse como clonación en sentido estricto.

Paraclonación: transferencia de núcleos procedentes de blastómeros embrionarios o de células fetales en cultivo a

óvulos no fecundados enucleados y a veces, a zigotos enucleados. El "progenitor" de los clones es el embrión o feto. Clonación verdadera: transferencia de núcleos de células de individuos ya nacidos a óvulos o zigotos enucleados. Se

originan individuos casi idénticos entre sí (salvo mutaciones somáticas) y muy parecidos al donante (del que se diferencian en mutaciones somáticas y en el genoma mitocondrial, que procede del óvulo receptor).

Fines de los distintos tipos de clonaciónDe la gemelización artificialEn animales:- Investigación básica.- Mejora de FIV.- Mejora de fertilidad de las especies empleadas.En humanos:- En FIV, para mejorar resultados en mujeres con pobre estimulación ovárica.- Gemelos idénticos separados en el tiempo.De la paraclonaciónEn animales:- Individuos idénticos para investigación.- Producción ganadera.- Junto con clonación, para biotecnología: tejidos "humanizados", granjas farmacéuticas.- Fuentes de tejidos, para xenotrasplantes.En humanos: - ¿investigación básica y aplicada? ¿Terapia? Para enfermedades mitocondriales que producen ceguera o epilepsia: transferencia del núcleo del embrión hasta un óvulo-zigoto recepetor.De la clonación verdaderaEn animales:- Mejora de conocimientos en biomedicina: . modelos de enfermedades. . con transgénesis: producción de medicamentos.. órganos para xenotrasplantes: cerdos transgénicos con factor inhibidor de complemento humano. Este es el objetivo del grupo de PPL, cuyo artículo reciente ya hemos citado: I.A. Polejaeva et al. (2000): "Cloned pigs produced by nuclear transfer from adult somatic cells", Nature 407: 86-90. De hecho, en dicho trabajo adelantan ya que han logrado cultivos celulares en los que el gen de la alfa-1,3-galactosil transferasa está interrumpido, por lo que no es funcional. En principio, si lograsen cerdos transgénicos a partir de estas células, podrían servir como fuentes de tejidos para xenotrasplantes a humanos, evitándose el rechazo hiperagudo del injerto. Sin embargo, la cuestión de los xenotrasplantes a partir de tejidos porcinos está en entredicho, por el riesgo de que se puedan liberar virus endógenos a la población humana. Ello se complicaría aún más con las propuestas de obtener cerdos transgénicos dotados de proteínas humanas del complemento: si bien con ello se evitaría otra de las causas de rechazo, hay que tener en cuenta que algunas de esas proteínas sirven como puertas de entrada a algunos virus humanos.En Ganadería:- Obtención de animales transgénicos. Recombinación homóloga para generar animales noqueados con genes inactivados y sustituidos. Producción de proteínas terapéuticas.- Idealmente se necesita método de transferencia no quirúrgica de embriones. Rápida propagación de fenotipos probados en el sector ganadero. ¿Venta y distribución cómoda de embriones? Evitar la falta de diversidad genética, limitando el número de individuos de un mismo clon en cada rebaño.Intentos de salvar in extremis a especies de la extinción (p. ej, el panda gigante, un bóvido salvaje asiático llamado gaur, etc.). Incluso alguien está intentando "resucitar" especies extinguidas de las que hay material biológico conservado (alguna especie de marsupial australiano como el tigre de Tasmania, el bucardo -una subespecie de cabra montés recientemente desaparecida del Pirineo español).En humanos, la clonación verdadera podría tener dos usos diferentes:- Clonación reproductiva: tal como se describe arriba, para crear un individuo clónico.- Clonación no reproductiva: se realiza la manipulación celular como en la anterior, pero el embrión no se implanta en útero, sino que puede servir a distintos objetivos, principalmente de investigación:. Sobre fertilidad, anticoncepción, etc. . Desarrollo embrionario. . Obtención de células madre e inducción de diferenciación a diferentes tejidos.

Terapia GenéticaLas investigaciones genéticas se concentran en aquellos aspectos que pueden solucionar muchas de as enfermedades propias de nuestra especie; ya sean de manera directa, es decir, actuando directamente en los genes, o bien por medios de productos que pueden sanar estas enfermedades. Algunos de los campos en que trabaja la ingeniería genética son:

Producción de antibióticos, hormonas y anticuerposDesde que en 1929 se descubrió la penicilina, el número y el uso de los antibióticos no ha dejado de aumentar. En la actualidad, debido a su importancia económica y social, la ingeniería genética ha conseguido mejorar cuantitativamente el proceso de fabricación de tales medicamentos. Esta mejora se ha conseguido aislando el gen productor del antibiótico e introduciéndolo en un microorganismo que tiene una gran capacidad de reproducción; este hecho supone que el antibiótico en cuestión se produzca en gran cantidad y con gran pureza.La diabetes es una enfermedad que provoca una deficiencia de la hormona insulina en los pacientes que la padecen. Los bajos niveles de insulina en la sangre se solucionan con el aporte externo de la hormona. Hasta ahora, esta sustancia se extraía de los conejos y cerdos mediante un proceso caro y no exento de problemas de rechazo.La ingeniería genética la ha aislado en el gen humano que codifica para la insulina y la ha introducido en una bacteria denominada Eschlerichia coli. El resultado es una hormona sin efectos secundarios y más barata.La somatostatina es otra hormona que tiene un proceso de obtención que es aún más difícil que el anterior. Antiguamente se necesitaba un millón de cerebros de ovejas para obtener 0,005g, en la actualidad la producción se hace por medios de bacterias transgénicas, que tienen una producción miles de veces superior.

Solución a enfermedades genéticasLas enfermedades de tipo genético se caracterizan porque tienen su origen en algún defecto en los genes implicados. El progresivo conocimiento del genoma humano ha permitido localizar muchas de estas enfermedades en los diferentes cromosomas. La ingeniería genética puede intervenir y cambiar los genes defectuosos por otros normales.

Page 15: Trabajo de Nuevas Tecnologías-1

El ADN(Deficiencia de Adenosina Deaminasa) es una enfermedad que provoca una grave deficiencia inmunológica, por lo cual los enfermos que la padecen tienen que vivir dentro de una cámara completamente aislada y esterilizada(niños burbuja).La terapia consiste en extraer los glóbulos blancos(linfocitos T) del propio paciente, modificarlos genéticamente y retornarlos a la sangre. Esta modificación consiste en la sustitución de los genes alterados (del cromosoma 20) por otros correos que tienen la capacidad de producir la adenosina deaminasa. Los linfocitos transformados se multiplican de manera artificial en laboratorio hasta generar miles de millones de células. El retorno de las células sanas se hace de manera periódica.Este tratamiento tenía un efecto bastante breve, ya que estos glóbulos blancos modificados genéticamente tiene una vida más bien corta, de manera que el tratamiento se tenía que repetir más o menos cada mes. La mejora de la terapia consiste en introducir los genes correctores en las células hematopoyéticas, es decir, en las células formadoras de glóbulos blancos. La ventaja radica en que estas células modificadas tienen una vida mucho más larga y se puede dividir y generar billones de células sanguíneas, todas ellas con el nuevo gen.Se conocen muchos tipos de cáncer que se pueden tratar mediante la terapia genética; de hecho, más de la mitad de los protocolos de esta terapia son para tratamientos de cáncer.En 1989 se iniciaron tratamientos en enfermos de tumores epidérmicos graves(melanomas); se les introducían linfocitos modificados genéticamente para que provocaran una respuesta inmunitaria mucho más intensa que la habitual.El resultado fue poco esperanzador, aunque algunos pacientes sufrieron remisiones de los tumores.Otro tratamiento consiste en introducir todo un grupo de genes suicidas destinados a las células cancerosas. La efectividad se basa en que estas células, al dividirse más rápidamente, tienden a incorporar todo tipo de moléculas, incluso genes modificados. Estos genes suicidas pueden actuar de diversas maneras:

Matar la célula directamente, porque segregan sustancias tóxicas.

Sensibilizar las células a determinados fármacos tóxicos.

Sustituir los genes responsables de la división celular desordenada y devolver así el crecimiento celular normal.

Otros tratamientos dirigen los genes manipulados hacía las células normales para que puedan ser más resistentes a determinadas terapias, tanto de tipo farmacológico como radioterápico.

Proyecto Genoma HumanoEl Proyecto Genoma Humano y la ingeniería genética son dos grandes campos científicos en los que los avances que se han producido en los últimos años han sido espectaculares. Como intentaré mostrarles, las implicaciones éticas y jurídicas del Proyecto Genoma Humano son muy distintas a la problemática que genera la ingeniería genética. Pero, a pesar de la diversidad de cuestiones a las que hay que responder, en el núcleo de todos los problemas que se plantean se encuentran dos preguntas que, aunque son básicas, no dejan de tener una importancia trascendental: en primer lugar, ¿que significa admitir que el ser humano posee una dignidad inherente?; en segundo lugar, ¿que consecuencia conlleva, en el ámbito de los derechos humanos el reconocimiento de tal dignidad frente a las posibilidades actuales de la biotecnología?Llama poderosamente la atención del profano el hecho de que, frente a la ya referida "revolución" biotecnológica actual, la problemática ética y jurídica que ésta genera se ha afrontado, hasta ahora, muy superficialmente. Temas como el uso indiscriminado de la información genética para seleccionar a los embriones que van a ser implantados en las técnicas de fecundación in vitro, la realización de sondeos génicos a grupos de población predeterminados, o la obtención, por parte de laboratorios occidentales, de genes de etnias indígenas con el propósito de conseguir su patente, lo demuestran. Detrás de ello se encuentra una deficiente fundamentación iusfilosófica que conduce a soluciones relativas y cambiantes, en muchos casos fuertemente hipotecadas por los intereses económicos en juego.

Orígenes y situación actualEn el año 1984, a iniciativa del Departamento de Energía Norteamericano, el Rector de la Universidad de California y los Institutos Nacionales de Salud, se inició en EEUU lo que actualmente se denomina Proyecto Genoma Humano (PGH). En 1988 se creó la "Office of Human Genome Research". En un principio sólo tenía atribuciones consultivas y administrativas, pero posteriormente se transformó en el "National Center for Human Genome Research". Este Centro, bajo la dirección inicial del premio Nobel Watson, ha llegado a contar con recursos propios para la investigación.El PGH es, desde un punto de vista biomédico, posiblemente el proyecto más ambicioso de la historia. En la actualidad colaboran en él diversos países y está previsto que finalice en el año 2003. Esta es, por decirlo de algún modo, la previsión de la secuenciación oficial del PGH. Sin embargo, el mes de mayo del pasado año, el investigador norteamericano Craig Venter anunció, ante la expectación de la comunidad científica mundial, la creación de una Compañía privada cuyo objetivo es completar la secuenciación del genoma humano en sólo tres años. En el proyecto están trabajando cientos de expertos en informática y bioquímica y se invirtieron unos 35.000 millones de pesetas iniciales. Se sabe, sin embargo, que la secuenciación será de menor calidad que la conseguida con el Proyecto inicial.Podemos afirmar de un modo muy esquemático que el PGH intenta secuenciar los, aproximadamente, 100.000 genes que componen el genoma de la especie humana. Estos se encuentran en cada una de las células de nuestro organismo y están constituidos, a su vez, por tres mil millones de pares de bases nitrogenadas. En definitiva, el Proyecto intenta descifrar toda la información contenida en esos 100.000 genes. En la actualidad están secuenciados unos 30.000.En el desarrollo del PGH podemos distinguir tres periodos:1º. De 1984 a 1986: Se plantea llevar a cabo "grosso modo" la secuenciación de la totalidad de los tres mil millones de pares de bases nitrogenadas que componen el genoma humano.2º. De 1986 a 1988: Ante la imposibilidad de realizar el primer objetivo, se replantea el Proyecto, intentando racionalizarlo y secuenciar, en primer lugar, los fragmentos de ADN de mayor interés. Se señalan, fundamentalmente, tres objetivos: a) la realización de un mapa de uniones genéticas ("linkage map") que permita la búsqueda de los caracteres hereditarios en los ancestros humanos; b) establecer un conjunto de mapas físicos que permitan el examen directo del ADN produciendo colecciones

Page 16: Trabajo de Nuevas Tecnologías-1

ordenadas de fragmentos clonados de este material; c) información de la secuencia de ADN suficiente para acelerar el estudio de los genes y otros aspectos de interés.3º. De 1988 en adelante: El Proyecto se desarrolla en países concretos: EEUU, Japón, China, Canadá, Australia, y en la Comunidad Económica Europea (CEE), fundamentalmente en Gran Bretaña y Francia. La CEE inició un programa apoyado por 35 laboratorios. Se constituyen Asociaciones Internacionales de carácter coordinador, como la "Human Genome Organization" (HUGO).En la actualidad el PGH está adquiriendo un desarrollo espectacular, acortándose progresivamente la fecha fijada para la finalización de los trabajos. La secuenciación oficial ha sido adelantada del 2005 al 2003. Ello se ha debido, fundamentalmente, a los extraordinarios progresos tecnológicos que han tenido lugar en los últimos años. De un modo especial ha contribuido a este avance la revolución que ha tenido lugar en el campo de la informática. Ello ha permitido automatizar los procesos de análisis y comparación de las secuencias obtenidas.Sobre el PGH recaen múltiples esperanzas y, a la vez, fuertes críticas. Algunas de ellas insisten en la idea de que se están invirtiendo cantidades desorbitadas que, por otro lado, podrían, aplicadas a otro tipo de investigaciones, resultar mucho más rentables. Como es conocido, la identificación de un gen causante de una determinada enfermedad no asegura, en absoluto, la posibilidad de su curación. Por otro lado, también es frecuente que se cuestionen estas técnicas debido a la sensación actual de que la ciencia y la tecnología están adquiriendo un poder incontrolable18 .Frente a tales críticas se podría alegar que, en realidad, el PGH es una gran inversión de futuro. No hay que desconocer que la información obtenida de los genes está permitiendo avanzar rápidamente en el campo de la terapia génica somática. Asimismo, no se pueden desconocer las ventajas de una medicina predictiva.Por todo ello, no faltan investigadores que confían plenamente en la eficacia del Proyecto. Así, en palabras del premio Nobel Watson, "nunca se encontrará un conjunto de libros de instrucción más importante. Cuando sean finalmente interpretados, los mensajes genéticos codificados dentro de nuestro ADN nos proporcionarán las últimas respuestas a los cimientos químicos de la existencia humana. No solamente nos ayudarán a comprender como funcionamos como seres humanos sanos, sino que también nos explicarán, a nivel químico, el papel de los factores genéticos en una multitud de enfermedades – como el cáncer, la enfermedad de Alzheimer y la esquizofrenia– que disminuyen la vida individual de millones de personas".

Problemática de la información genéticaHe señalado la gran trascendencia del PGH en el campo de la medicina. Sin embargo, conviene no olvidar que este Proyecto plantea también cuestiones de gran trascendencia ética y jurídica que deben ser resueltas. La problemática se centra, básicamente, en el ambivalente potencial de la información genética que se va a poder obtener de una persona concreta.Debemos partir de que, en la actualidad ya es posible extraer información genética de un individuo a través de sondas radioactivas de ADN. Estas permiten desvelar la situación exacta de un gen mutado o alterado. La técnica consiste, básicamente, en lo siguiente: sobre filamentos de ADN separado se añaden fragmentos de ADN marcado. Si el ADN original posee, por ejemplo, un gen vinculado al cáncer de colon, los fragmentos marcados se unirán a éste en el lugar exacto en el que tal gen se encuentra. Ello permite determinar si ese sujeto en concreto podrá padecer cáncer de colon. En este momento se pueden detectar por este mecanismo el 40% de los canceres de colon. En EEUU se venden por 50 dólares Kits de fácil manejo que detectan unas 300 enfermedades de origen genético.La realización de un sondeo génico puede aportar, en términos generales, la siguiente información:1º. La prueba revela la presencia de un gen dominante para una determinada enfermedad monozigota –causada por un sólo gen–, por lo que ésta, o bien se padece o, con mucha probabilidad, se padecerá en un futuro. Así ocurre, por ejemplo, con el corea de Huntigton, dolencia que produce una terrible degeneración neurológica.2º. La prueba revela la existencia de desórdenes multifactoriales. En este caso, el sondeo pone de manifiesto una propensión a desarrollar una específica patología, que podría desembocar en enfermedad cuando se dieran interacciones entre el genotipo y determinados entornos ambientales: así, por ejemplo, la exposición prolongada a la acción de algún factor (una sustancia química, una radiación, etc.). Su desarrollo dependerá de características medioambientales y de la propia indiosincracia del individuo, por lo que la manifestación de la patología está sujeta a gran incertidumbre. Un ejemplo de ello sería la deficiencia glucosa-6-fosfato-deshudrogenasa (G-6-PD).3º. Los sondeos revelan que el sujeto es heterocigoto o portador de un gen autosómico recesivo y, por lo tanto, se revela asintomático. Es el caso de la anemia falciforme, ya que sólo cuando el individuo es homozigoto para el rasgo desarrolla la enfermedad. Se trata de personas completamente sanas, que muy posiblemente nunca sufrirán esa dolencia, pero que, debido a su carácter de portadores de un gen "anormal", podrán afrontar una situación de segregación.Para poder determinar las implicaciones de estas técnicas en el campo de los derechos humanos hay que partir de la radical trascendencia personal, social y económica de los datos que va a aportar el sondeo. No hay que desconocer el impacto personal y social que puede suponer el acceso a tal información, así como el potencial económico que ésta conlleva para, por ejemplo, empresarios o Compañías de seguros. De hecho, la posibilidad de obtener información genética ya ha levantado amplias esperanzas en distintos ámbitos y sectores de la economía. Por otro lado, la Administración de determinados países, como EEUU, ya ha puesto en marcha políticas de sondeos masivos para determinar la propensión de individuos pertenecientes a un determinado colectivo a desarrollar una concreta enfermedad.Debido a la escasez de tiempo, sólo voy a enumerar algunas cuestiones relacionadas con el acceso a la información genética que poseen radical importancia en relación a nuestro tema.I. Uno de los más graves peligros que conlleva el acceso a esta información es la posibilidad de una progresiva exacerbación de una mentalidad eugenésica. El PGH, como advirtieron desde un principio los científicos, se presta especialmente al desarrollo de las ideologías eugenésicas. Watson, premio Nobel y quizás la figura más prestigiosa de la Genética moderna, propuso que, al menos el 3% de los fondos atribuidos a financiar el PGH se destinaran, entre otras cosas, al estudio y prevención del peligro de eugenesia. Sin embargo, la previsible posibilidad de acceder y de manipular los genes para conseguir seres humanos a la medida de la voluntad, puede estimular, de un modo alarmante, posturas eugenésicas. Ello aparece especialmente claro en el ámbito prenatal. En la actualidad, ya se están realizando análisis genéticos para detectar posibles anomalías en el embrión. Mediante el diagnóstico

Page 17: Trabajo de Nuevas Tecnologías-1

preimplantatorio en las técnicas de la fecundación in vitro se puede llegar a seleccionar aquel que reúne el mayor número de características deseables. Jacques Testard, uno de los pioneros de estas técnicas en Francia, mantiene que éste tipo de diagnósticos "permite a los padres y a los médicos rechazar los defectos de menor importancia que antes se toleraban en el diagnóstico prenatal y la correspondiente selección". En definitiva, la presencia de "deficiencias" genéticas suele ser causa de aborto sistemático. Ya en 1989, el Parlamento Europeo, en su Resolución de 16 de marzo sobre Problemas éticos y jurídicos de la manipulación genética y de la fecundación artificial humana advertía, en el punto 25, sobre el grave peligro de eugenesia.El problema se va a agravar en un futuro no muy lejano. Algunos investigadores han afirmado que para finales de este siglo se habrán podido crear sondas de ADN que permitan examinar toda la dotación cromosómica de un individuo y detectar así cualquier defecto o fragilidad hereditaria imaginable. Por ello, la información genética obtenible desde el instante de la fusión del óvulo con el espermatozoide, dando lugar a un nuevo ser humano, será de un calibre insospechado. En EEUU, Capron ha destacado que este tipo de pruebas serán sistemáticamente realizadas a los "nasciturus". Para este autor, incluso la continuación de los Seguros de salud podrá hacerse depender de la decisión de abortar, ya que las Compañías no van a querer hacerse cargo de los gastos generados por una descendencia enferma. Aunque esta práctica aún no se ha extendido, para este autor es de esperar que en una sociedad tan competitiva como la americana tal exigencia se convierta en algo rutinari. En definitiva, por esta vía se niega radicalmente cualquier dignidad al nuevo ser humano, ya que la decisión sobre su vida dependerá de la información revelada por un análisis genético.II. las pruebas genéticas realizadas en individuos adultos plantean también una serie de cuestiones de trascendental importancia para el ser humano. El PGH, al poner al descubierto al denominado "hombre de cristal", va a ser un factor determinante del surgimiento de una modalidad de discriminación apoyada precisamente en la noción de enfermedad o "predisposición" a padecer una determinada patología. Los sondeos génicos, al descifrar el código genético de un ser humano –y con él las bases químicas constitutivas de su personalidad, las enfermedades que necesariamente contraerá y aquellas otras para las que posee una cierta predisposición– pueden convertirse, en manos de la Administración o de entidades particulares, en fuente de discriminación. La tentación de evaluar a cada ser humano por su grado de "normalidad" o "anormalidad" con respecto a un genoma típico será grande.III. En el núcleo de esta problemática se encuentra, en mi opinión, la urgente necesidad de reconocer la existencia de un derecho humano a la intimidad genética, con todas las garantías jurídicas que ello conlleva. Frente a cualquier otro tipo de intromisión, el examen del mapa genético afecta a la intimidad biológica mas profunda del ser humano. Por ello, no sólo se puede convertir en un arma de agresión a éste en manos de los demás, sino que, en ocasiones, tendrá una repercusión dramática sobre el mismo sujeto examinado. De hecho, recientes estudios realizados en Dinamarca han demostrado el fuerte "shock" psicológico que se produce en la persona que conoce que padecerá una enfermedad genética en el futuro, aunque no presente ningún síntoma, especialmente si no existe terapia conocida.La justificación de la existencia de este derecho se encuentra en el concepto de dignidad antes referido. El ser humano, como ser individual, es merecedor de un respeto que implica, entre otras cosas, el reconocimiento de un ámbito de actuación y decisión en el que no quepa ninguna intervención de carácter externo. El derecho a la libertad, entendido como derecho a la no interferencia ajena en aspectos básicos de la vida personal, se traduce, entre otras exigencias, en el derecho a la intimidad. En este sentido, es importante poner de relieve que existen espacios más o menos profundos del ser individual y que, precisamente, los datos genéticos se encuentran situados en uno de los niveles más básicos. La articulación jurídica de este derecho debería tener en cuenta, entre otros, los siguientes puntos:a) La información genética no debe quedar nunca excluida del control del sujeto analizado. A diferencia de lo que ocurre, en general, con los datos amparados por el derecho a la privacidad, los propios actos no deben determinar una pérdida de protección jurídica para esta información.b) Debe asegurarse una libertad real en el acceso a la información genética personal. Ello implica que las pruebas de carácter génico se deben realizar mediando siempre el consentimiento informado y consciente de la persona analizada.c) Es importante garantizar que la negativa a acceder o suministrar la información genética no va a repercutir desfavorablemente sobre cualquier expectativa o situación social o jurídica del sujeto. Ello implica el reconocimiento de la existencia de un "derecho a no saber", a negarse a la realización de sondeos. Aquí debe hacerse especial mención a la necesidad de garantizar que la negativa no va a tener consecuencias perjudiciales en el ámbito laboral.IV. El referido derecho a la intimidad genética debe complementarse con el reconocimiento de un derecho a la no discriminación por razones genéticas. El problema relativo al enorme potencial discriminador de la información genética no es una cuestión nueva. En efecto, el debate sobre las consecuencias discriminatorias de la información obtenida a partir de sondeos genéticos comenzó hace ya algunos años en los EEUU. También en esta ocasión han sido los mismos científicos los que, conscientes del extraordinario conocimiento que sobre el ser humano va a ser capaz de revelar el Proyecto Genoma, han alertado sobre las posibles consecuencias discriminatorias de los análisis, no sólo en la vida social e incluso familiar, sino también, y de un modo especial, en el campo de los seguros, la sanidad y el ámbito laboral. En este sentido, por ejemplo, Hans Martín Sass, Director del Centro de Ética médica de Bochum y del Programa Europeo del Instituto Kennedy de Ética ha manifestado que "En un clima básico de fobia hacia las formas de alta tecnología, han surgido temores respecto a una posible discriminación futura de los minusválidos y retrasados, a la discriminación para obtener un puesto de trabajo, a la asistencia sanitaria y para suscribir un seguro". Los científicos, por otro lado, han subrayado que no basta, en este punto, con destacar el carácter no ético de tales prácticas. Es necesario que la legislación de los distintos países reaccione ante esta nueva situación y, asimismo, que la jurisprudencia se prepare para poder afrontar estos nuevos conflictos.En concreto, en el ámbito laboral, es evidente que la información genética puede contribuir decisivamente a mejorar la protección de las personas, resultando una buena ayuda para evitar las enfermedades profesionales. Pero también es indudable que este conocimiento, en el caso de que no se tomen las medidas legales oportunas, tendrá consecuencias no tan deseadas. La información obtenida mediante el sondeo servirá para graduar la resistencia al medio del empleado, operando, en definitiva, como criterio de selección y, por ello, discriminador.

Page 18: Trabajo de Nuevas Tecnologías-1

Por otro lado, conviene tener en cuenta que, en ocasiones, no habrá certeza de que la enfermedad se vaya a padecer. Una difusión de los resultados genéticos conduciría a crear una nueva categoría de pacientes, los "predispuestos", sometidos a una dura discriminación. Como destaca Capron, el empresario evitaría cualquier relación contractual, no sólo por los gastos que previsiblemente el trabajador pudiera generar a causa de su enfermedad, sino porque, en el caso de padecerla, éste podría achacar a las condiciones de la empresa el desencadenamiento de su patología. Esto, a su vez, generaría al empresario un mayor desembolso por gastos judiciales, indemnizaciones, etc.Asimismo, es importante garantizar la no existencia de discriminaciones indirectas en los casos en los que los sondeos revelan que el sujeto es meramente portador de un gen autosómico recesivo y, por lo tanto, se revela asintomático. Nos encontramos ante individuos totalmente sanos pero que, sin embargo, pueden tener una descendencia enferma. En aquellos países, como EEUU, en los que la sanidad es privada y suele estar sufragada por el empresario, existe un claro temor al incremento de los costes sanitarios a causa de tal descendencia enferma, lo cual puede determinar la existencia de fuertes discriminaciones en el acceso al mercado laboral.Por último, hay que tener presente el hecho de que un gran número de enfermedades genéticas se hallan ligadas a la raza. La realización indiscriminada de pruebas genéticas puede, en algunos casos, encubrir políticas claramente discriminadoras o racistas.  

Leer más: http://www.monografias.com/trabajos68/ingenieria-genetica/ingenieria-genetica2.shtml#ixzz31Li1QMpG

3 LA EVOLUCIÓN GENÉTICA

3-b. El Neodarwinismo.

La genética es algo más reciente ya que, aunque Gregor Mendel realizó sus trabajos en tiempos de Darwin, no se difundieron sus ideas hasta comienzos del s.XX. Se denomina neodarwinismo o síntesis moderna a la fusión de ambas teorías que tuvo lugar entre los años veinte y cincuenta de nuestro siglo. En las dos últimas décadas se han realizado importantes descubrimientos sobre los mecanismos químicos de actuación de los genes que nos permiten tener actualmente una visión aun más perfecta de los mecanismos evolutivos. En todas las células de todos los seres vivos se encuentran unas moléculas extraordinariamente largas, de forma espiral, de ácido desoxirribonucléico (ADN). A lo largo de los filamentos de la doble hélice de ADN se ordenan cuatro tipos de bases nucleotídicas: adenina, citosina, guanina y timina. La secuencia en que se disponen estas cuatro bases forma el código genético, la clave cifrada que contiene toda la información necesaria para crear un organismo completo. El encargado de transmitir y descifrar esta información es el ácido ribonucléico (ARN). El ARN obtiene una copia "en negativo" del ADN y la transporta hasta los ribosomas, unas gotitas que actúan como fábricas celulares, en donde comenzará la producción de proteínas. Las proteínas están formadas a su vez por largas cadenas de amionácidos, cuya secuencia determinará el tipo de proteína y la función a cumplir en el organismo. Cada tres bases nucleotídicas darán lugar a un aminoácido. El código genético ha sido totalmente descifrado por los científicos. Se conoce que aminoácido quedará formado en respuesta a un triplete determinado de bases. Se conoce cuales son los tripletes que dan la señal de

Page 19: Trabajo de Nuevas Tecnologías-1

"inicio" y "paro". La clave genética ha resultado ser exactamente la misma en todos los organismos vivos conocidos, vegetales y animales.

Un gen es un segmento del ADN que contiene la información necesaria para determinar una característica de un organismo. Mediante ciertos mecanismos, el ADN se duplicará en el momento de la reproducción y una copia de él se transmitirá a las células germinales que darán origen a un nuevo individuo. La transcripción se realizará con mucha fidelidad, pero en ocasiones, y debido a diferentes causas, se producirán errores que son uno de los posibles orígenes de nuevos genes, es decir, de las mutaciones. Los errores se producen por motivos totalmente aleatorios..No tienen nada que ver con el medio ambiente en que se haya desarrollado la vida del progenitor. Por tanto no hay ningún motivo para esperar que la mutación mejore la adaptación del organismo al medio ambiente. De hecho se piensa que la mayoría de las mutaciones son neutrales, que no tendrán incidencia alguna en la vida futura del organismo. Algunas serán perjudiciales y otras pocas favorecerán al individuo en el medio ambiente concreto en el que se desarrolle su existencia.

Conviene aquí que introduzcamos algunas palabras técnicas que nos serán de mucha utilidad más adelante. Se llama genotipo al grupo de genes que determinan una a varias características de un individuo. Fenotipo es un conjunto de características observables de un individuo que han sido formadas tanto por su constitución genética como por influencias ambientales. Genoma es la dotación genética completa de un organismo mientras que se llama acervo génico o pozo (pool) de genes al conjunto de genes que puede ser encontrado en los individuos de una especie determinada.

La tecnología es un fenómeno social, y como tal, está determinada por la cultura en la que emerge y podría determinar la cultura en la que se utiliza. No obstante las TIC indudablemente han tenido un profundo impacto en todos los ámbitos de la sociedad, generando el desarrollo de diversas áreas del conocimiento tales como: Ingeniería, Educación, Salud, Energía, Transporte, Biotecnología, entre otras.Hoy en día, los progresos en las denominadas tecnologías de la información y la comunicación, que abarcan los equipos y aplicaciones informáticas y las telecomunicaciones, están teniendo un gran efecto. De hecho, se dice que estamos en un nuevo tipo de sociedad llamada Sociedad de la información o Sociedad de Conocimiento, que viene a reemplazar a los dos modelos socioeconómicos precedentes, la sociedad agraria y la sociedad industrial.Las Tecnologías de la Información y la Comunicación (TIC), como concepto general viene a referirse a la utilización de múltiples medios tecnológicos o informáticos para almacenar, procesar y difundir todo tipo de información, visual, digital o de otro tipo con diferentes finalidades, como forma de gestionar, organizar y sobre todo coordinador las diversas actividades laborales que a diario desempeñamos millones de personas.Cabe destacar que el uso de las TIC tiene un importante potencial para apoyar las acciones orientadas a contribuir en la satisfacción de las diferentes demandas sociales. Las Tecnologías de la Información y las Comunicación (TIC) son incuestionables y están ahí, forman parte de la cultura tecnológica que nos rodea y con la que debemos convivir. Amplían nuestras capacidades físicas y mentales, y las posibilidades de desarrollo social.La Tecnologías de la Información y Comunicación han permitido llevar la globalidad al mundo de la comunicación, facilitando la interconexión entre las personas e instituciones a nivel mundial, y eliminando barreras espaciales y temporales.

Page 20: Trabajo de Nuevas Tecnologías-1

Su incidencia e impacto conllevan a la adquisición, producción, almacenamiento, tratamiento, comunicación, registro y presentación de informaciones, en forma de voz, imágenes y datos contenidos en señales de naturaleza acústica, óptica o electromagnética. Las TICs incluyen la electrónica como tecnología base que soporta el desarrollo de las telecomunicaciones, la informática y el audiovisual.

IMPACTO E INCIDENCIAS DE LAS TIC

Impacto desde el punto de vista de la ingenieríaEl conocimiento práctico es una característica distintiva de los ingenieros. Esta relación o impacto que ha generado las TIC en el mundo de la ingeniería ha coadyuvado a crear, planear, implantar, administrar, evaluar y supervisar sistemas de información integrándolos de forma sinérgica a las organizaciones con el objeto de mejorar su competitividad.Involucra tanto habilidades científicas y técnicas como habilidades personales. Entre estas últimas pueden mencionarse como ejemplos el trabajo en equipo, la creatividad, la comunicación o la capacidad autocrítica. La industria (Buonopane, 1997) requiere y espera que los ingenieros posean una amplia variedad de estas habilidades personales a la vez que un grado elevado de competencia técnica. Del mismo modo, muchas instituciones y asociaciones de ingeniería (ASEE, 1994; Grinter, 1995; ABET, 1997; CAE, 1993; Bates y otros, 1992) incluyen esta apreciación en sus informes. El desarrollo y aprendizaje de estas habilidades es posible sólo si, al igual que el conocimiento científico, su realización es un proceso de autoconstrucción del estudiante.El impacto de las TIC ha proporcionado a los ingenieros desarrollar, organizar, mantener y actualizar cualquier sistema de información, además de ayudar a las empresas a innovar tecnológicamente su forma de transmitir y controlar su información de manera optima, confiable y precisa.GENETICA: En los últimos cinco años, el estudio de la genética ha dado un vuelco revolucionario en la prevención de la muerte súbita.Desde este punto de vista las TIC abordan la adquisición, almacenamiento, integración, y análisis de datos biológicos, los cuales proporcionan los modelos, métodos y herramientas informáticas que permiten la integración de la información genética y clínica, así como otros factores, para contribuir decisivamente a mejorar la oportuna prevención, diagnostico y tratamiento de futuras enfermedades.Las TIC han llegado finalmente a realizar una gran hazaña: leer el mapa genético. Para sorpresa de muchos, los biólogos han encontrado que las instrucciones que llevamos dentro no son tan diferentes de las de otros organismos. Algunos incluso han llegado a proponer que separar la genética humana de la otros organismos no tiene sentido. Pero la genética humana bien vale un apartado separado, aun cuando para su estudio se parte de muchos otros organismos menos evolucionados.

Leer más: http://www.monografias.com/trabajos82/impacto-e-incidencias-tic/impacto-e-incidencias-tic.shtml#ixzz31LkYnqsK

Las TIC han impactado en la biología. Dado que no podemos hacer una revisión exhaustiva de todas las que existen en la actualidad, hemos elegido aquellas que han permitido resolver algunas cuestiones metodológicas o que han desatado cambios conceptuales importantes, siendo las herramientas que nos permiten observar lo inaccesible, aumentando la capacidad de la visión humana hasta lo inimaginable.Empezaremos, entonces, por el instrumento más conocido por todos: el microscopio, con el que se observaron cosas y seres que en el siglo XVIII eran inexplicables.Otro de los impactos relacionado con el mundo de la genética y la biología es electromagnetismo como medio para fijar imágenes, desde los rayos X hasta los tomógrafos y los resonadores magnéticos.Hoy día son muchas las metodologías usadas para cortar y pegar genes, introducirlos en bacterias, amplificarlos y encontrar genes en organismos. Estas herramientas nos permitirán entender cómo se crean los organismos genéticamente modificados, un tema de suma actualidad. Existe un proyecto más ambicioso en la historia de la biología: el Proyecto Genoma Humano. Sus consecuencias éticas, sociales, legales y médicas invitan a la reflexión.La detección de enfermedades genéticas, antes o después del nacimiento, se está perfeccionando gracias a los adelantos tecnológicos; el avance es especialmente rápido en el campo relacionado con el ADN.El Proyecto del genoma humano, actualmente en marcha, tiene por objetivo la identificación y el trazado del mapa de todos los genes de los cromosomas humanos. El genoma es el conjunto genético de un individuo. En cada locus de cada uno de los cromosomas se encuentra un gen y la función de un cierto locus, como el determinar el color de los ojos, es la misma en todos los individuos. Sin embargo, el gen específico que está en ese lugar varía y confiere a cada uno sus características individuales.La tecnología genética puede ampliar la duración de la vida de los seres vivos. Esto es en realidad la búsqueda de un equilibrio entre el coste y el beneficio. Es posible reparar el organismo, que está desgastándose y envejeciéndose diariamente Sin embargo, cuando éste llegue a su punto crítico, la reparación ya no valdrá la pena, ya que su coste resultará demasiado alto con el organismo a punto de ser abandonado. Según la teoríagenética, sería suficiente hacer una reproducción genética en el organismo de la nueva generación más joven y más sano con el fin de "huir" del organismo ya envejecido.La combinación de ambos enfoques en la lucha contra la edad, dice Longo, condujo a un espectacular incremento sobre el tiempo de vidaEl estudio de los sistemas biológicos está limitado por el poder de resolución de los instrumentos utilizados para su análisis, es decir, su habilidad para distinguir dos objetos, ubicados muy próximos entre sí, como entidades discretas. El ojo humano sólo puede hacerlo con puntos separados por más de 0,1 milímetros (100 micrones). La mayoría de los microscopios ópticos comunes poseen

Page 21: Trabajo de Nuevas Tecnologías-1

un poder de resolución de 0,0002 milímetros (0,2 micrones), y esto permite no sólo ver células, sino además sus componentes macroestructurales.Por lo tanto, la tecnología de ADN es el conjunto de técnicas que permiten aislar un gen de un organismo, para su posterior manipulación e inserción en otro diferente. De esta manera podemos hacer que un organismo (animal, vegetal, bacteria, hongo) o un virus produzca una proteína que le sea totalmente extraña.Si visitamos un laboratorio de biología molecular, probablemente encontraremos una cuba con un gel al cual se le aplica una corriente eléctrica. Este método, llamado electroforesis en gel, es muy usado para separar moléculas de diversos tamaños y es la base de las técnicas que describiremos para identificar ADN, ARN, y proteínas. En los párrafos siguientes describiremos entonces la electroforesis para poder comprender luego cómo funcionan las demás técnicas.BIOTECNOLOGIA: La biotecnología consiste simplemente en la utilización de microorganismos así como de células vegetales y animales para producir materiales tales como alimentos, medicamentos y productos químicos útiles a la humanidad.Las TIC y la biotecnología son tecnologías instrumentales que pueden aplicarse e implementarse para alcanzar una amplia gama de objetivos, los cuales están dirigidos a la obtención de beneficios sociales, económicos y medio ambientales.La revolución que han experimentado en la última década, gracias al potencial aplicado por las TIC, abrirá nuevas posibilidades para dirigir la economía mundial hacia un desarrollo más sostenible y una mejor calidad de vida. Transformarán el modelo de desarrollo sostenible que durante años las sociedades más avanzadas han estado aplicando, plasmándose en nuevas y espectaculares aplicaciones en medicina, agricultura,alimentación, industria, medio ambiente y también en nuevos descubrimientos científicos.La implementación de las TIC en los sistemas sanitarios permitirá acelerar la consulta de datos médicos personales y mejorar, en último término, la calidad asistencial, dado que se trabajará con criterios consensuados con expertos de otros países.La biotecnología es una potente tecnología que permite una industrialización sostenible, sustituyendo las tecnologías contaminantes actuales por procesos en desarrollo con la reducción del consumo de materias primas, de energía y de contaminación de residuos no reciclables ni biodegradables.Estudios realizados en el ámbito químico, plástico, alimentación, textil, papel, minería, refinería y energético muestran que la biotecnología no sólo reduce costes, sino también reduce la huella dejada en el medio ambiente por los elevados niveles de producción.La bioinformática es una disciplina científica de muy reciente aparición que tiene por objetivo el desarrollo de herramientas computacionales para el análisis de la información biológica y genómica. Se encuentra en la intersección entre las ciencias de la vida y de la información, proporcionando los recursos necesarios para favorecer la investigación biomédica.Las herramientas informáticas son cruciales para almacenar e interpretar los datos generados por el Proyecto Genoma Humano de un modo eficiente en los centros de investigación biológica. La bioinformática trata de desarrollar sistemas que sirvan para entender el flujo de información desde los genes a las estructuras moleculares, su función bioquímica, conducta biológica y, finalmente, su influencia en las enfermedades y la salud.LA ENERGIA: La industria de las Tecnologías de la Información y las Comunicaciones (TICs), que incluye las operadoras de telecomunicaciones e Internet, es uno de los mayores consumidores de electricidad del mundo, y su consumo crece exponencialmente.Es evidente que las telecomunicaciones van ligadas estrechamente a la energía y que un análisis de sus repercusiones ambientales pasa necesariamente por estudiar su efecto en la demanda energética. A lo largo de este artículo se va a analizar la influencia de las telecomunicaciones y las tecnologías de la información sobre el consumo energético, en particular sobre el consumo eléctrico, que es el más significativo.Las tecnologías de telecomunicaciones, que actualmente constituyen Internet, malgastan una gran cantidad de energía eléctrica, que crece de manera exponencial con el número de usuarios y su velocidad de transmisión. Al mismo tiempo, en las redes corporativas, clientes y servidores aumentan la capacidad y el rendimiento y, por consiguiente, aumentan el consumo total.Consumo energético de las TIC. Presente y futuroEn las últimas décadas se está viviendo un continuo crecimiento de la demanda energética. En 2004 la demanda anual total en España fue un 3,7 % mayor que la de 2003. Además, empieza a ser habitual oír noticias sobre picos de consumo, que pueden provocar problemas de suministro. Ya en 2005, el 11 de enero, se ha alcanzado un nuevo máximo de demanda de energía eléctrica en España.Este aumento del consumo, ligado en general a la mejora de la calidad de vida, debe ser contenido si queremos preservar los recursos naturales y evitar la contaminación atmosférica, tan influenciada por la producción energética, que ya está provocando actualmente problemas en la salud de las personas y cambios en el equilibrio ecológico, con consecuencias claras, por ejemplo en el clima.En este contexto, en 1999 cundió la alarma con la publicación en la revista Forbes de un artículo (2) de Hurber y Mills en el que presentaban los resultados de un estudio sobre la demanda energética procedente del uso de Internet y de sus infraestructuras, concluyendo que era responsable de más de un 8% de la demanda energética de Estados Unidos, y que después de una década sería previsible que llegara a consumir la mitad de lo producido por la red eléctrica.Análisis posteriores concuerdan en que este estudio sobreestimó los consumos de algunos equipos electrónicos asociados con Internet, en algunos casos en más de un orden de magnitud (3).Estudios realizados en distintos países sobre la contribución de las Tecnologías de la Información y Comunicación (TIC) al consumo de electricidad, coinciden en que los equipos de oficina y de telecomunicación usados en el sector no residencial representan en torno a un 3 ó 4% del consumo anual de electricidad.Posibilidades de mejora: eficiencia energéticaLas empresas del sector de las TIC son conscientes de su efecto medioambiental, de los impactos que sus actividades causan en el entorno y de las oportunidades de su actividad para el desarrollo humano.

Page 22: Trabajo de Nuevas Tecnologías-1

Tanto para los operadores de telecomunicación, como para los fabricantes de equipos electrónicos, esta toma de conciencia ha derivado en la necesidad de conocer en mayor profundidad sus efectos, para poder potenciar su contribución positiva, minimizando la negativa.Efecto energético de los servicios de telecomunicaciónAunque de modo inmediato se perciba que va a existir un aumento del consumo energético asociado a los nuevos servicios de telecomunicaciones, es desde una perspectiva global y a largo plazo donde sí se puede apreciar un ahorro de recursos energéticos.Se estima que en el mejor de los casos, un 50% de la energía utilizada en los procesos de fabricación de productos en la Unión Europea (de los 15) se ahorraría en 2020, gracias a la posibilidad que ofrecen las TIC de permitir que el consumidor pague por un servicio y no tanto por la adquisición de un producto. Las estimaciones más negativas indican un ahorro de sólo un 5%.El cambio promovido por las nuevas tecnologías de la información está originando una metamorfosis: para satisfacer sus necesidades, los usuarios no requieren "adquirir un producto", sino "acceder a un servicio". El video bajo demanda o la prensa digital son ejemplos de servicios de telecomunicaciones que de forma clara influyen en la denominada  desmaterialización", posibilitando funcionalidades sin incrementar el consumo de recursos naturales.Las TIC como medio de sensibilizaciónLa sensibilización puede jugar un papel decisivo en el ahorro energético, ayudando a un uso más racional de los recursos energéticos. Por su amplia difusión, Internet es uno de los medios más empleados para la divulgación de buenas prácticas encaminadas al uso racional de la energía, siendo utilizado por distintos organismos para este tipo de concienciación.A lo largo de este artículo se han analizado las interrelaciones entre las TIC y la evolución del consumo de energía. Una de las evidencias identificadas es que aunque la implantación de las telecomunicaciones tiene amplios beneficios en la eficiencia de otros sectores industriales, comerciales y domésticos, va a conllevar probablemente un aumento moderado del consumo energético debido al incremento del equipamiento.Por lo tanto, es preciso el avance en la investigación de mejoras en la eficiencia energética de redes y equipos de comunicaciones, así como compatibilizar el desarrollo tecnológico con la utilización de fuentes de energía alternativas menos contaminantes. Fabricantes de equipos, operadores de telecomunicaciones, organismos oficiales, etc. comienzan a ser conscientes de la necesidad de su contribución en el uso sostenible de la energía y ya están haciendo realidad iniciativas encaminadas a este reto mundial.Los análisis energéticos actuales de las TIC están todavía sometidos a criterios subjetivos y estimaciones, por lo que no se observan resultados concluyentes que permitan cuantificar con rotundidad el impacto de las nuevas tecnologías sobre los recursos energéticos. En cualquier caso, hay que tener en cuenta todos los efectos ambientales resultantes de la incorporación de las TIC, ya que las disminuciones en el consumo de otros recursos o la reducción de los desplazamientos pueden compensar los efectos negativos del aumento del consumo eléctrico.Transporte: La importancia social, económica y ambiental del transporte es indiscutible. La sociedad valora cada día más la movilidad y tiene un efecto significativo en su calidad de vida.Un sistema de transporte adecuado es el eje fundamental de la economía, más aún cuando estamos inmersos en un mercado global, en el que es sencillo, y a veces más barato, comprar a miles de kilómetros que a la vuelta de la esquina. Pero el transporte está asociado también a algunos de los principales problemas ambientales.Las tecnologías de la información y las comunicaciones (TIC) pueden tener dos importantes repercusiones en el transporte, una, mediante la incorporación a vehículos y sistemas de control de tráfico, y otra, a través de la reducción de la demanda de desplazamientos con el uso de servicios apoyados en las tecnologías de la información.Las tecnologías de la información y las comunicaciones tienen un amplio potencial para mejorar la gestión del tráfico, principalmente en los núcleos más congestionados. Los vehículos inteligentes son capaces de mejorar la seguridad y reducir el consumo de combustible.La posibilidad de trabajar desde casa o desde centros cercanos a sus domicilios mejora la calidad de vida de los trabajadores, les ayuda a conciliar su vida personal y laboral, y a aprovechar mejor su tiempo. Además, puede contribuir a hacer las ciudades más sostenibles: reducir los desplazamientos en horas punta, muchos de ellos en vehículo particular, las necesidades de aparcamiento, y la contaminación y el ruido asociado.El transporte no es un fin en sí mismo, sino que nos permite obtener un servicio: educación, sanidad, trabajo, ocio… Las tecnologías de la información pueden permitir acercarnos ese servicio sin un desplazamiento físico.Pero no todos los servicios que ofrecen las TIC contribuyen claramente a reducir las necesidades de desplazamientos. La compra on line, que facilita comprar productos en lugares alejados, puede repercutir negativamente en el efecto ambiental de esa compra. Aunque ahorremos el desplazamiento a la tienda, el transporte de la mercancía puede compensar y superar esa contribución positiva. El comercio electrónico, por tanto, puede tener dos efectos contrarios en el transporte, por una parte, mejora su eficiencia, pero por otra, puede llevar asociado un aumento de kilómetros recorridos.Los sistemas de transporte inteligente surgieron de implantar las TIC en el transporte por carretera, pero hoy en día se están integrando en otros modos de transporte. Estos sistemas ofrecen un importante potencial para hacer los automóviles más eficientes, pueden salvar vidas y reducir el impacto del transporte en el medio.La incorporación de las TIC a los automóviles proporciona nuevas soluciones para incrementar la seguridad vial y permitir un uso más eficiente del combustible.Sistemas de asistencia al conductor en tiempo realEl error humano es una de las causas de cerca del 93% de los accidentes. La salida de la vía es el accidente más frecuente, pero el cansancio y las distracciones son también algunos de los factores más comunes.Las tecnologías de control automático de vehículos están encaminas a mejorar la seguridad en la carretera, mediante dispositivos que avisan al conductor de un peligro y le permiten corregir sus acciones: sensores que detectan vehículos en el punto muerto, sensores infrarrojos para mejorar la seguridad en la conducción nocturna, etc.Los beneficios de estos sistemas están aún por llegar, ya que todavía no se han generalizado, y actualmente quedan restringidos a los vehículos de lujo.

Page 23: Trabajo de Nuevas Tecnologías-1

Los avances tecnológicos aplicados a los vehículos permiten un control más integrado y completo de la conducción, y contribuyen a disminuir el riesgo de que se produzca un accidente.Costes económicosLa adaptación del sector del transporte a las nuevas tecnologías implica la necesidad de realizar inversiones económicas, que a veces pueden retrasar su implantación, sobre todo, si no quedan claros los beneficios que se van a obtener.La diversidad de aplicaciones que ofrecen las tecnologías de la información al sector del transporte implica que sus costes también son muy distintos. Por otra parte, hay que considerar también los ahorros económicos asociados: por mejora de productividad, ahorro de gastos derivados de accidentes, de contaminación ambiental, etc.Las TIC tienen un amplio potencial para hacer más eficiente el tráfico en las ciudades, mejorar la información, tanto a conductores como a usuarios del transporte público, y favorecer su movilidad.Por otra parte, las TIC también están empezando a entrar en la oferta de servicios del transporte público. Conectarse a Internet en un aeropuerto o hablar por teléfono móvil en los túneles del metro pueden hacer más atractiva su oferta. Los ciudadanos, que emplean muchas horas en sus desplazamientos diarios, pueden así aprovechar mejor su tiempo, realizando actividades que no podrían hacer mientras conducen su automóvil. La movilidad en los entornos laborales, cada día más valorada, será así más sencilla, lo que es especialmente importante para empleados que pasan muchas horas fuera de la oficina.

Nuevas formas de producción: el teletrabajo y su regulación jurídicaEl teletrabajo es una forma flexible de organización del trabajo que consiste en el desempeño de la actividad profesional sin la presencia física del trabajador. Puede realizarse a tiempo global o parcial. El teletrabajo requiere de algún medio de telecomunicación para el contacto entre el teletrabajador y la empresa.Pero, no todo son ventajas en esta modalidad de empleo. Por una parte, hay muchos empleos que requieren la presencia física del trabajador, y por otro lado, muchos empresarios desconocen el teletrabajo. Hoy por hoy son contados los casos de empresas que han implantado esta nueva modalidad.El teletrabajo no existe como profesión, no es más que una forma de desarrollar el trabajo. El Teletrabajo se caracteriza por la utilización de medios telemáticos y/o informáticos que permiten ejecutar y externalizar la actividad encomendada, además de favorecer una constante y más rápida comunicación con la empresa. No se trata solo de un trabajo ejecutado fuera de la empresa, sino que, además es requisito indispensable que con el uso intensivo del teléfono, fax, correo electrónico, video terminal, video conferencia, entre otras técnicas informáticas y telemáticas existentes, se aporte valor a la actividad desempeñada.En el mundo actual un teletrabajador tiene los mismos derechos, obligaciones y gastos que cualquier otro empleado, la única diferencia es que se utiliza el hogar como oficina principal.Los  centros de teletrabajo son una oficina de recursos compartidos que dispone de las instalaciones de telecomunicaciones y de los equipos informáticos necesarios para desarrollar actividades de teletrabajo. Proporcionan una solución para aquellos teletrabajadores que temen el aislamiento social producido por el trabajo en el domicilio y suponen una mejora de la formación informática de los trabajadores locales.El teletrabajo hace posible que personas que previamente estaban ligadas a lugares fijos de trabajo se conviertan, en teletrabajadores "itinerantes", sin domicilio fijo, sin perder el contacto permanente con su empresa y su familia.Esta forma de trabajo a distancia no es tan sencilla como parece ya que requiere una formación profesional específica previa. Además  requiere de un alto nivel organizativo y de autogestión. Por último no hay que olvidar que el teletrabajo ofrece un mayor grado de autonomía para aquellas personas con un carácter independiente y que les gusta asumir responsabilidades.REGULACION JURIDICA: SUJECIÓN DEL TELETRABAJO A LA LEY ORGÁNICA DEL TRABAJO VENEZOLANA.Constitución Nacional (1999)Artículo 87. Toda persona tiene derecho al trabajo y el deber de trabajar. El Estado garantizará la adopción de las medidas necesarias a los fines de que toda persona puede obtener ocupación productiva, que le proporcione una existencia digna y decorosa y le garantice el pleno ejercicio de este derecho. Es fin del Estado fomentar el empleo. La ley adoptará medidas tendentes a garantizar el ejercicio de los derechos laborales de los trabajadores y trabajadoras no dependientes. La libertad de trabajo no será sometida a otras restricciones que las que la ley establezca.El término Teletrabajo,  en este punto,   se refiere al denominado "teletrabajo subordinado"  en el que según la autora,  además de existir  la  prestación de servicio personal,  ejecutada fuera de la sede de la empresa, con la  utilización de medios telemáticos y/o informáticos como principales  herramientas de trabajo, se observan las notas de ajenidad, dependencia y remuneración presentes en toda  relación de trabajo.   La Ley Orgánica del Trabajo, establece en su artículo 15 los sujetos que se encuentran sometidos a las disposiciones contenidas en dicha la Ley. La ubicación de este artículo dentro del Capítulo I denominado Disposiciones Generales, perteneciente a su vez al Título I llamado Normas Fundamentales, hace pensar que las normas en ellos contenidas son en principio  aplicables a todas las relaciones del trabajo que se produzcan en el territorio Venezolano y esto debido al principio de territorialidad que el mencionado texto consagra en su artículo 10.Así el  artículo 15 ejusdem, establece: " Estarán sujetas a  las disposiciones de esta Ley todas las empresas, establecimientos, explotaciones y faenas, sean de carácter público o privado, existentes o que se establezcan en el territorio de la República, y en general, toda prestación de servicios personales donde haya patronos y trabajadores, sea cual fuere la forma que adopte, salvo las excepciones expresamente establecidas por  esta Ley."Para el mejor estudio de este artículo, y en procura de determinar la sujeción del teletrabajo y sus sujetos  a las normas contenidas en la Ley Orgánica del Trabajo, la autora  divide el  artículo anterior en dos supuestos a saber:

Page 24: Trabajo de Nuevas Tecnologías-1

a.-Supuesto para la parte empleadora,  comprende  a todas las empresas, establecimientos, explotaciones y faenas, sean de carácter público o privado, existentes o que se establezcan en el territorio de la República. b.-Supuesto para la parte laboral, referida a toda prestación de servicios personales donde haya patronos y trabajadores, sea cual fuere la forma que adopte, salvo las excepciones previstas por la Ley Orgánica del Trabajo.Dadas las características propias del teletrabajo, se  hace  difícil determinar con exactitud si la  empresa que utiliza esta nueva forma de prestación de servicio, está establecida o existe en  Venezuela. Entendiendo existencia y establecimiento como la materialización de la unidad productiva, en otras palabras, la sede física que llamada generalmente empresa,  va a ser objeto de imposición normativa. Por lo que considera que será en algunos casos,  sólo en los que la sujeción del teletrabajo a la normativa laboral le venga dada por este supuesto.Artículos 49 y 39 de la Ley Orgánica del Trabajo:Articulo 49: "Se entiende por patrono o empleador la persona natural o jurídica que en nombre propio, ya sea por cuenta propia o ajena, tiene a su cargo una empresa, establecimiento, explotación o faena, de cualquier naturaleza o importancia, que ocupe trabajadores, sea cual fuere su número...."Artículo 39: "se entiende por trabajador  la persona natural que realiza una labor de cualquier clase, por cuenta ajena y bajo la dependencia de otra.La prestación de sus servicios debe ser remunerada"Del análisis  de los elementos y tipos de Teletrabajo y su concatenación con las normas precedentes, se desprende que el "teletrabajador subordinado" presta un servicio personal,   que  responde a instrucciones dadas por un patrono y ejecutadas por un trabajador (teletrabajador) y que las características de ejecución de la prestación del servicio: fuera de la sede de la empresa y la utilización de medios telemáticos e informáticos como principales herramientas de trabajo, no son óbice para que le sea aplicado este artículo, en virtud  que,  como bien lo expresa la norma, no importa la forma que adopte la prestación del servicio.De tal manera que,  dependiendo del caso y tipo de teletrabajo  que se trate, su sujeción vendría dada, bien por el supuesto de sujeción para la parte empleadora, caso en el que la empresa tenga sede física en Venezuela o bien por el supuesto de sujeción para la parte laboral, cuando la prestación de servicio se ejecute desde la República de Venezuela,  caso en el que el telecentro, domicilio o clientes (teletrabajo móvil) estén  ubicados físicamente en  el territorio de la República de  Venezuela.Estar sujeto a la Ley Orgánica del Trabajo, trae como consecuencia para las partes que intervienen en la relación laboral el nacimiento de un conjunto de derechos y obligaciones establecidos en la mencionada normativa laboral. Claro está, que dadas las específicas características de esta nueva forma de prestación de servicio, este conjunto de derechos y obligaciones debe  ser adaptado al caso bajo estudio, para su eficaz aplicación.Nacimiento  de  la  Relación  de Trabajo en  el Derecho Laboral Venezolano: Aplicación al Teletrabajo            En la  legislación  laboral venezolana, se establecen principalmente dos vías por las cuales puede nacer la  relación laboral, la primera de ellas,  se basa en una manifestación tácita de la voluntad de las partes, que partiendo de la prestación de un servicio personal,  hacen presumir al legislador la existencia de una relación laboral  y la segunda,  se basa en la elaboración de un contrato de trabajo, en el que expresamente tanto el trabajador como el patrono manifiestan su voluntad de vincularse mediante una relación de trabajo.La  Presunción de  Existencia de la Relación LaboralEl origen  de la relación laboral,  produjo una fuerte controversia entre los sustentadores de la tesis contractualista versus los sustentadores de la tesis anticontractualista, quienes  basan  la existencia  de la relación jurídica,  en el  hecho de la incorporación efectiva del trabajador a la empresa, cualquiera  sea el acto que le haya dado nacimiento. Esta tesis tuvo su origen en Europa  y posteriormente fue desarrollada en América Latina  por  el  maestro Mario de la Cueva, quien  al referirse a la  relación de trabajo señaló:"Es una situación jurídica objetiva que se crea entre un trabajador y un patrono por la prestación de un trabajo subordinado, cualquiera que sea el acto o la causa que le dio origen (...)  El derecho del trabajo,  es un derecho protector de la vida, de la salud y de la condición económica del trabajador, parte del supuesto fundamental de la prestación del servicio y es, en razón de ella, que impone al patrono cargas y obligaciones".La Ley Orgánica del Trabajo en su artículo  65 establece: "Se presumirá la existencia de una relación de trabajo entre quien preste un servicio personal y quien lo reciba...".A juicio de la autora, esta es una norma de amplitud extrema,  que permite presumir la existencia de la relación laboral, con el hecho  de la prestación de un servicio personal destinado a un sujeto distinto del prestatario del mismo. Obsérvese que la única limitación a la mencionada prestación, es que debe tratarse de una prestación de servicio personal, con lo que quedarían excluidas las prestaciones de servicios de personas jurídicas.Con respecto a la naturaleza del receptor de la prestación, no señala distinción alguna, entendiéndose que puede tratarse de personas naturales o jurídicas.En el  "Teletrabajo Subordinado" existe la  prestación de servicio personal, ejecutada por el teletrabajador e igualmente existe  un receptor de la prestación,  distinto al prestatario de la misma.  La autora considera, que partiendo de este hecho, operaría  la presunción de existencia de la relación de trabajo, prevista en el artículo 65 ejusdem.En lo que respecta a la naturaleza de la presunción, es importante señalar que se trata de una presunción Iuris Tantum, vale decir, que admite prueba en contrario, así existiendo la prestación del servicio y el receptor del mismo, tendrán que adminicularse estos supuestos con la existencia de los postulados tradicionales del derecho laboral, para que pueda hablarse  del nacimiento de una relación laboral.El  Contrato de TrabajoEl  artículo 67 de la Ley Orgánica del Trabajo,  define el contrato de trabajo como "aquel mediante el cual una persona se obliga a prestar servicios a otra bajo su dependencia y mediante una remuneración". Esta definición, excluyó automáticamente al  trabajador no dependiente,  que el artículo 40 ejusdem, define como "la persona que vive habitualmente de su trabajo sin estar en situación de dependencia respecto de uno o varios patronos..." De la simple lectura del  artículo 67 ejusdem,  se desprende que  las notas de

Page 25: Trabajo de Nuevas Tecnologías-1

remuneración, dependencia y ajenidad son las que definen la existencia del  contrato de trabajo  y permiten su diferenciación respecto de otros contratos utilizados en el amplio campo del derecho. El lugar en que se realiza la prestación del servicio, el  hecho de trabajar desde el domicilio  o desde un telecentro o en forma móvil, como se explicó anteriormente, se debe a una elección organizativa de la empresa, en la que generalmente emplean los avances tecnológicos,  para lograr  reducción de costes y  aumento de productividad,  aplicando criterios de eficacia y eficiencia.La norma contenida en el citado artículo 67, es aplicable al caso del  "Teletrabajo Subordinado",  donde   el teletrabajador se obliga a prestar servicios bajo la dependencia del patrono, recibiendo como contraprestación a su labor, la respectiva remuneración. De lo comentando se desprende que las normas que rigen el inicio de la relación laboral en Venezuela, son perfectamente aplicables al caso del Teletrabajo.Toda relación  genera derechos y obligaciones para cada una de las partes que en ella intervienen. En el caso de las relaciones de trabajo de tipo tradicional, estos derechos y obligaciones se encuentran regulados a través de mínimos y máximos contenidos en la legislación laboral. Igual suerte deben correr  los derechos y obligaciones  nacidos del Teletrabajo, solo que en la actualidad cierto grupo de normas  han de  ser adaptadas a esta nueva forma de prestación de servicio, para que se logre una real y efectiva tutela.

Régimen jurídico del Derecho de Autor y de la propiedad intelectual enfocado en el uso de las TICEl derecho de autor efectivamente ha logrado desarrollarse como una herramienta que en la sociedad de la información, que no solo protegerá a los autores y los incentivará a seguir creando, sino que además facultará a los usuarios para que accedan a ciertos bienes de interés cultural, educativo y/o informativo que contribuyan con el fin de construir la sociedad del conocimiento a la que aspiramos. Sin embargo, para que eso sea posible, el derecho no puede ser óbice a la interacción entre el derecho de autor y las TIC, sino que debe facilitar y garantizar el desarrollo de una sociedad virtual en donde la tecnología sea un medio y no un fin para conseguir y producir conocimiento.El derecho de autor es un conjunto de normas y principios que regulan los derechos morales y patrimoniales que la ley concede a los autores (los derechos de autor), este Derecho: obras literarias como novelas, poemas, obras de teatro, documentos de referencia, periódicos y programas informáticos; bases de datos; películas, composiciones musicales y coreografías; obras artísticas como pinturas, dibujos, fotografías y escultura; obras arquitectónicas; publicidad, mapas y dibujos técnicos.En el derecho anglosajón se utiliza la noción de copyright (traducido literalmente como "derecho de copia") que -por lo general- comprende la parte patrimonial de los derechos de autor (derechos patrimoniales).El derecho de autor se basa en la idea de un derecho personal del autor, fundado en una forma de identidad entre el autor y su creación. El derecho moral está constituido como emanación de la persona del autor: reconoce que la obra es expresión de la persona del autor y así se le protege.El Derecho de Autor ante las tecnologías de la información y la comunicación (TIC)La importancia de dar protección a la propiedad intelectual en virtud de la fragilidad en la que tales derechos se encuentran en el ámbito digital, deviene también en un interés más que moral, muchas veces económico. Incluso esa iniciativa de protección generalmente está impulsada por las empresas que gestionan los derechos patrimoniales o bien por las productoras o editoriales que comercian la obra, más que por los autores interesados en que su creación se difunda.Está claro que al autor hay que reconocerle su trabajo de forma remunerada, pues no sólo es necesario incentivarlo para que siga generando obras artísticas, literarias o científicas sino que también merece tal reconocimiento, por un trabajo personalísimo que no podría ser sustituido por ningún otro ciudadano (de allí que el derecho de autor proteja la originalidad de la creación).Considerando la ponderación que se suele dar entre el derecho de autor y el de los usuarios a acceder gratuitamente al material que éste produce, resulta importante recordar porqué la defensa del derecho del autor es necesaria en esta sociedad informatizada que pone en manos del usuario las obras, sin mayor dificultad.El derecho de autor supone la utilización en exclusiva por parte del autor de los derechos de explotación de la obra, sin perjuicio de las cesiones que pueda acordar sobre ésta, como una prerrogativa en virtud de la propiedad que ostenta sobre un bien que determina su naturaleza personal: la impronta autorial que define la originalidad.El tradicional conflicto entre titulares del derecho de autor y usuarios de las obras protegidas, encontró un equilibrio adecuado con la autorización de la copia privada y las limitaciones del derecho de autor establecidas por la mayoría de las legislaciones siguiendo la pauta de la Convención de Berna, o la limitación genérica del fair use existente en el derecho norteamericano. Pero en el entorno digital también se plantea un conflicto entre los titulares del derecho de autor y los prestadores de servicios en la red, conflicto que se agrava porque en el entorno digital no es de aplicación la cláusula del fair use ni muchas de las limitaciones tradicionales del derecho de autor. Los titulares del derecho de autor argumentan que los prestadores de servicios en la red violan al menos indirectamente el derecho de autor, porque hacen posible que se realicen copias no autorizadas, y, por su parte, los prestadores de servicios en la red alegan que son simples portadores de datos, y que no pueden controlar los contenidos que reciben, almacenan o transmiten para terceros.Convención de Berna: El Convenio de Berna para la Protección de las Obras Literarias y Artísticas, más conocido como el Convenio de Berna (Convención de Berna), es un tratado internacional sobre la protección de los derechos de autor sobre obras literarias y artísticas. Su primer texto fue firmado el 9 de septiembre de 1886, en Berna (Suiza). Ha sido completado y revisado en varias ocasiones, siendo enmendado por última vez el 28 de septiembre de 1979.La Convención de Berna se apoya en tres principios básicos y contiene una serie de disposiciones que determinan la protección mínima de obras literarias y artísticas que se concede al autor, además de las disposiciones especiales disponibles para los países en desarrollo que tuvieran interés en aplicarlos. A junio de 2009, 164 estados son partes del Convenio.Con el auge de la tecnología, el derecho de autor adquiere nuevas dimensiones en virtud de los medios en los que se utilizan las obras, los soportes en los cuales se fijan, y por los nuevos medios de reproducción y comercialización.

Page 26: Trabajo de Nuevas Tecnologías-1

El autor requiere de protección jurídica sobre la propiedad de sus obras, pues es un incentivo para seguir creando y entregar su obra a la sociedad para su uso y disfrute. Es innegable, por tanto, y a todas luces necesaria la retribución económica para incentivar también a las industrias que facilitan el acceso a estos materiales (sea editoriales, empresas discográficas o cinematográficas, etc.) que invierten recursos económicos para poner a disposición pública el material en cuestión.En el mismo sentido también es innegable el derecho que tiene el usuario a acceder a estos bienes, exigiendo el equilibrio necesario entre tantos intereses en conflicto.La utilización de tecnología informática, la digitalización y la convergencia de las redes de comunicación y de telecomunicaciones ya están teniendo una repercusión considerable en la explotación transfronteriza de obras literarias, musicales o audiovisuales y otros materiales protegidos, como los fonogramas y representaciones fijadas en un soporteLa problemática es mayor cuando se reconoce que la comunicación de obras sujetas al derecho de autor, más que una actividad cultural resulta una actividad lucrativa con beneficios económicos reales, que por ende despierta el interés de muchos órganos privados para evitar la apropiación pública y gratuita de bienes con los cuales se puede especular en el mercado.El derecho de autor efectivamente ha logrado desarrollarse como una herramienta que en la sociedad de la información, no solo protegerá a los autores y los incentivará a seguir creando, sino que además facultará a los usuarios para que accedan a ciertos bienes de interés cultural, educativo y/o informativo que contribuyan con el fin de construir la sociedad del conocimiento a la que aspiramos.Sin embargo, para que eso sea posible, el derecho no puede ser óbice a la interacción entre el derecho de autor y las TIC, sino que debe facilitar y garantizar el desarrollo de una sociedad virtual en donde la tecnología sea un medio y no un fin para conseguir y producir conocimiento.Base Constitucional de la Propiedad Intelectuales Venezuela: Nuevamente se presenta la misma redacción de la Constitución vigente, que se basa en enunciar las creaciones del ingenio humano que comprenden la propiedad intelectual. Este criterio está totalmente abandonado, debido a la amplitud de formas en que se manifiesta cada día el intelecto creador del hombre. Por ello se sugiere no enunciar estas manifestaciones, sino por el contrario, hacerla más omnicomprensiva. De esta manera, al sustituir la lista de enunciaciones por la mención "todos los derechos de propiedad intelectual reconocidos o por reconocerse", quedan incluidos los derechos sobre todas las ramas de la propiedad intelectual, con suficiente amplitud para cubrir las nuevas formas que sean o puedan ser reconocidas en el futuro, en acuerdos y tratados internacionales.Igualmente, proponemos incluir que la protección que Venezuela reconoce a la propiedad intelectual, no solo es la recogida en las leyes, sino también en los Tratados y Acuerdos Internacionales, así como en nuestras normas de integración. Finalmente, consideramos absolutamente contraproducente establecer "excepciones" a la propiedad intelectual por razones de interés social, por cuanto las limitaciones o restricciones que en estamateria pudieran existir, se encuentran ya recogidas en los Acuerdos y Tratados Internacionales suscritos por la República.Constitución Nacional (1999)De los Derechos Culturales y EducativosArtículo 98. La creación cultural es libre. Esta libertad comprende el derecho a la inversión, producción y divulgación de la obra creativa, científica, tecnológica y humanística, incluyendo la protección legal de los derechos del autor o de la autora sobre sus obras. El Estado reconocerá y protegerá la propiedad intelectual sobre las obras científicas, literarias y artísticas, invenciones, innovaciones, denominaciones, patentes, marcas y lemas de acuerdo con las condiciones y excepciones que establezcan la ley y los tratados internacionales suscritos y ratificados por la República en esta materia.Además de considerar susceptible de propiedad las obras científicas, literarias y artísticas, como puede ser el contenido de un libro de física o química, un poemario o una pintura, las cuales están definidas en la Ley como obras del intelecto del ámbito de los derechos culturales, agrega las figuras de las invenciones, innovaciones, denominaciones, patentes, marcas y lemas, también como forma de propiedad. Siendo estás últimas derechos de "concesión" que otorga el Estado a los particulares por un tiempo determinado, todas del ámbito comercial e industrial.Decreto Nº 1.769 25 de marzo de 1997Reglamento de la ley sobre el derecho de autor y de la decisión 351 de la comisión del acuerdo de Cartagena que contiene el régimen común sobre derecho de autor y derechos conexos sección primera, de las obras del ingenio.Este reglamento tiene por finalidad desarrollar los principios contenidos en la Ley sobre Derecho de Autor y en la Decisión 351 de la Comisión del Acuerdo de Cartagena, en lo relativo a la adecuada y efectiva protección a los autores y demás titulares de derechos sobre las obras literarias, artísticas o científicas, así como a los titulares de derechos afines y conexos al derecho de autor.Artículo 1°Las disposiciones de esta Ley protegen los derechos de los autores sobre todas las obras del ingenio de carácter creador, ya sean de índole literaria, científica o artística, cualesquiera sea su género, forma de expresión, mérito o destino.Los derechos reconocidos en esta Ley son independientes de la propiedad del objeto material en el cual esté incorporada la obra y no están sometidos al cumplimiento de ninguna formalidad. Quedan también protegidos los derechos conexos a que se refiere el Título IV de esta Ley.Mientras que los derechos que abarca el derecho de autor se refieren a los autores, los "derechos conexos" se aplican a otras categorías de titulares de derechos, los artistas intérpretes o ejecutantes, los productores de fonogramas y los organismos de radiodifusión.Por derechos conexos se entienden los derechos que se conceden a los artistas intérpretes o ejecutantes, los productores de fonogramas y los organismos de radiodifusión en relación con sus interpretaciones o ejecuciones, fonogramas y radiodifusiones.A diferencia del derecho de autor, los derechos conexos se otorgan a los titulares que entran en la categoría de intermediarios en la producción, grabación o difusión de las obras. Su conexión con el derecho de autor se justifica habida cuenta de que las tres categorías de titulares de derechos conexos intervienen en el proceso de creación intelectual por cuanto prestan asistencia a los autores en la divulgación de sus obras al público. Los músicos interpretan las obras musicales de los compositores; los actores interpretan papeles en las obras de teatro escritas por los dramaturgos; y los productores de fonogramas o, lo que es lo mismo, "la

Page 27: Trabajo de Nuevas Tecnologías-1

industria de la grabación", graban y producen canciones y música escrita por autores y compositores, interpretada o cantada por artistas intérpretes o ejecutantes; los organismos de radiodifusión difunden obras y fonogramas en sus emisoras.Ejusdem.CAPÍTULO I, Disposiciones GeneralesArtículo 90La protección prevista para los derechos conexos al derecho de autor, no afectará en modo alguno la protección del derecho de autor sobre las obras científicas, artísticas o literarias. En consecuencia, ninguna de las disposiciones comprendidas en este Título podrá interpretarse en menoscabo de esa protección, y en caso de conflicto se estará siempre a lo que más favorezca al autor.Artículo 91Los titulares de los derechos conexos reconocidos en este Título, podrán invocar todas las disposiciones relativas a los autores, en cuanto estén conformes con la naturaleza de sus respectivos derechos, inclusive las acciones y procedimientos previstos en el Título VI y las relativas a los límites de los derechos de explotación, contemplados en el Título II de esta Ley. También le serán aplicables, cuando corresponda, las disposiciones previstas en los artículos 15, 16 y 59 de esta Ley.Convención Universal sobre Derecho de Autor adoptada en Ginebra el 6 de septiembre de 1952 y revisada en París el 24 de julio de 1971 (abreviado como Convención de Ginebra de 1952)La Convención de Ginebra establece que cada uno de los Estados contratantes se compromete a tomar todas las disposiciones necesarias a fin de asegurar una protección suficiente y efectiva de los derechos de los autores, o de cualesquier otros titulares de estos derechos, sobre las obras literarias, científicas y artísticas tales como los escritos, las obras musicales, dramáticas y cinematográficas y las de pintura, grabado y escultura.Las obras publicadas de los nacionales de cualquier Estado contratante, así como las obras publicadas por primera vez en el territorio de tal Estado, gozarán en cada uno de los otros Estados contratantes de la protección que cada uno de estos Estados conceda a las obras de sus nacionales publicadas por primera vez en su propio territorio.Las obras no publicadas de los nacionales de cada Estado contratante gozarán, en cada uno de los demás Estados contratantes, de toda la protección que cada uno de estos Estados conceda a las obras no publicadas de sus nacionales.Para la aplicación de la presente Convención todo Estado contratante puede, mediante disposiciones de su legislación interna, asimilar a sus propios nacionales toda persona domiciliada en ese Estado.

Ley especial contra los delitos informáticosSu objetivo es proteger los sistemas que utilicen tecnologías de información, así como prevenir y sancionar los delitos cometidos contra o mediante el uso de tales tecnologías (Gaceta Oficial N° 37.313 del 30 de octubre de 2001). Se trata de una ley especial que decodifica el Código Penal y profundiza aún más la incoherencia y falta de sistematicidad de la legislación penal, con el consecuente deterioro de la seguridad jurídica.La Ley define los términos tecnología de la información, sistema, data, documento, computadora, hardware, firmware, software, programa, procesamiento de datos o de información, seguridad, virus, tarjeta inteligente, contraseña y mensaje de datos.Art. 1 Objeto de la Ley. La presente Ley tiene por objeto la protección integral de los sistemas que utilicen tecnologías de información, así como la prevención y sanción de los delitos cometidos contra tales sistemas o cualesquiera de sus componentes, o de los delitos cometidos mediante el uso de dichas tecnologías, en los términos previstos en esta Ley.La ley tipifica cinco clases de delitos:

Contra los sistemas que utilizan tecnologías de información: acceso indebido (Art.6); sabotaje o daño a sistemas (Art.7);

favorecimiento culposos del sabotaje o daño. (Art. 8); acceso indebido o sabotaje a sistemas protegidos (Art. 9); posesión de equipos o prestación de servicios de sabotaje (Art. 10); espionaje informático (Art. 11); falsificación de documentos (Art. 12).

Contra la propiedad: hurto (Art. 13); fraude (Art. 14); obtención indebida de bienes o servicios (Art. 15); manejo

fraudulento de tarjetas inteligentes o instrumentos análogos (Art. 16); apropiación de tarjetas inteligentes o instrumentos análogos (Art. 17); provisión indebida de bienes o servicios (Art. 18); posesión de equipo para falsificaciones (Art. 19);

Contra la privacidad de las personas y de las comunicaciones: violación de la privacidad de la data o información de

carácter personal (Art. 20); violación de la privacidad de las comunicaciones (Art. 21); revelación indebida de data o información de carácter personal (Art. 22);

Contra niños y adolescentes: difusión o exhibición de material pornográfico (Art. 23); exhibición pornográfica de niños o

adolescentes (Art. 24); Contra el orden económico: apropiación de propiedad intelectual (Art. 25); oferta engañosa (Art. 26).

Los Delito informático, es un crimen genérico o crimen electrónico, que agobia con operaciones ilícitas realizadas por medio de pcs o del Internet o que tienen como objetivo destruir y dañar ordenadores, medios electrónicos y redes de Internet. Sin embargo, las categorías que definen un delito informático son aún mayores y complejas y pueden incluir delitos tradicionales como el fraude,el robo, chantaje, falsificación y la malversación de caudales públicos en los cuales ordenadores y redes han sido utilizados. Con el desarrollo de la programación y de Internet, los delitos informáticos se han vuelto más frecuentes y sofisticados.Existen actividades delictivas que se realizan por medio de estructuras electrónicas que van ligadas a un sin número de herramientas delictivas que buscan infringir y dañar todo lo que encuentren en el ámbito informático: ingreso ilegal a sistemas, interceptado ilegal de redes, interferencias, daños en la información (borrado, dañado, alteración o supresión de datacredito), mal uso de artefactos, chantajes, fraude electrónico, ataques a sistemas, robo de bancos, ataques realizados por hackers, violación de los derechos de autor, pornografía infantil, pedofilia en Internet, violación de información confidencial y muchos otros.  

Page 28: Trabajo de Nuevas Tecnologías-1

Leer más: http://www.monografias.com/trabajos82/impacto-e-incidencias-tic/impacto-e-incidencias-tic2.shtml#ixzz31LkiSJXM

PORQUÉ EL FUTURO NO NOS NECESITA

Bill Joy

Las tecnologías con más empuje en el siglo XXI –la robótica, la ingeniería genética y las nanotecnologías- amenazan de extinción a la especie humana.

Bill Joy (Cofundador y Jefe Científico de SUN MICROSYSTEMS, es coautor del lenguaje Java y del protocolo JINI).

Mi implicación en el desarrollo de las nuevas tecnologías ha estado siempre acompañada de preocupaciones de orden ético desde el primer día. Sin embargo, no es hasta el otoño de 1998 que no he tomado conciencia de los graves peligros que nos hacía correr el siglo XXI. Los primeros síntomas de este malestar profundo aparecieron el día en que me encontré con Ray Kurzweill, el inventor, con un éxito legítimo, de muchas cosas extraordinarias, entre ellas el primer aparato que permitía leer a los ciegos.

Ray y yo interveníamos en la conferencia Telescom de George Gilder. Acabadas nuestras intervenciones conocí a Ray por casualidad en el bar del hotel, donde me encontraba conversando con John Searle, un filósofo de Berkeley especializado en la conciencia. Fue entonces que Ray se aproximó, y que se inició una conversación alrededor del tema que, desde entonces, no ha cesado de preocuparme.

No pude asistir a la intervención de Ray, ni al debate que le siguió, en el que John y él estaban invitados. Y e aquí que reemprendían el debate donde la habían

Page 29: Trabajo de Nuevas Tecnologías-1

dejado. Ray afirmaba que el progreso en materia de tecnología iba a experimentar una aceleración cada vez más rápida y que estábamos abocados a convertirnos en robots, a fusionarnos con las máquinas o a alguna cosa parecida. Sosteniendo que un autómata no está dotado de conciencia, John rechazaba estas ideas.

Este género de discusiones me eran relativamente familiares, los robots dotados de sensaciones quedaban en el dominio de la ciencia-ficción. Y, allí, ante mis ojos, un individuo que presentaba todas las garantías de seriedad afirmaba con toda convicción la inminencia de tal perspectiva. Estaba chocado. Sobretodo conociendo la capacidad cierta de Ray de no solo imaginar el futuro sino de inventarlo de una manera concreta. Que hubiese llegado a ser posible rehacer el mundo apoyándose en las nuevas tecnologías, como la ingeniería genética o la nanotecnología, no era una sorpresa para mí. Al contrario, inscribir en un futuro próximo un escenario realista de robots “inteligentes2, esto me dejaba perplejo.

Este género de descubrimientos vitales pierden pronto su estímulo. Cada día o casi, una nota nos informa de un avance suplementario en un dominio u otro de la tecnología o de la ciencia. Pasaba que en este caso concreto la predicción se salía de madre. Allá en aquel bar de hotel, Ray me remitió a una serie de pruebas extraídas de su libro la era de las máquinas espirituales, entonces apunto de aparecer. En esta obra, trazaba las grandes líneas de una utopía visionaria: una utopía según la cual, uniéndose a la tecnología robótica, el ser humano se convertiría en una criatura inmortal. Al hilo de las páginas, mi sentimiento de malestar fue creciendo: no sólo Ray, con toda seguridad, minimizaba los peligros de una vía como aquella, sino que reducía del mismo modo la importancia de sus potenciales efectos devastadores.

Fue entonces que fui trastornado por un pasaje que exponía un escenario distópico:

“UN NUEVO DESAFIO PARA LOS LUDITTAS”.

“Admitamos que los investigadores en informática consiguen desarrollar máquinas inteligentes capaces de superar al ser humano en toda cosa. Desde

Page 30: Trabajo de Nuevas Tecnologías-1

aquel momento, el conjunto del trabajo sería probablemente asegurado por sistemas automatizados tentaculares de organización rigurosa, los cuales volverían superfluo todo esfuerzo humano. En este caso, hay dos posibilidades: o bien se deja a estas máquinas dueñas enteramente de sus decisiones, libres de toda supervisión humana, o bien la hipótesis del mantenimiento de la supervisión humana.

Frente a la perspectiva de unidades dejadas enteramente dueñas de ellas mismas, en la medida en que no podemos anticipar su comportamiento, nos guardaremos de toda especulación sobre un desenlace posible. Hay, sin embargo, que señalar que desde entonces, el destino de la humanidad quedaría en sus manos. El argumento según el cual el género humano jamás tendrá la ingenuidad de abandonarse totalmente a las máquinas no es de recibo. Nuestro propósito, no es adelantar un escenario donde el hombre investirá deliberadamente de plenos poderes a las máquinas, sino otro donde ellas mismas tomaran el poder de autoridad. De hecho, lo que tememos, es una deriva rápida del genero humano a una tal dependencia de ellas, que no quedará otra elección que aceptar en bloque sus decisiones. A medida que la complejidad de las sociedades y de los problemas a los que ha de hacer frente vaya creciendo, y a medida que los dispositivos sean más “inteligentes” un número cada vez mayor de decisiones les serán confiadas. La razón es simple: se obtendrán mejores resultados. Se puede incluso imaginar que, en un momento dado, las decisiones a tomar para la gestión del sistema alcanzaran un grado de complejidad tal que escaparan a las capacidades de la inteligencia humana. Este día, las máquinas habrán tomado efectivamente el control. ¿Detenerlas? Ni se planteará, dado nuestro grado de dependencia, esto sería suicida.

“La opción alternativa sería servirse de las máquinas para controlar al hombre. Si en una tal hipótesis, el individuo lambda conserva la dirección de ciertos aparatos personales tales como su coche o su ordenador, el de los sistemas de gran envergadura serían monopolio de una elite restringida, como ocurre de hecho hoy en día, pero con uso detalles más. Con la evolución de las técnicas, esta elite ejercerá sobre las masas un control reforzado. Y, puesto que en este estadio la mano de obra humana nos era necesaria, las masas mismas serán superfluas. No serán más que un fardo inútil entorpeciendo al sistema. Si la elite en cuestión es cruel, puede decidirse simplemente a exterminar a la humanidad. Si ella es humana, puede recurrir a la propaganda y a otras técnicas psicosociales o biológicas para provocar una caída de las tasas de natalidad tal que la masa de la

Page 31: Trabajo de Nuevas Tecnologías-1

humanidad acabará por extinguirse. La elite podrá entonces imponer sus puntos de vista al resto del mundo. Estando, la elite, constituida por demócratas de corazón tierno, pueden tomar el papel de granjeros, criando con benevolencia al resto de la humanidad. Sus pastores velaran que todas las necesidades materiales sean satisfechas, a que una educación sea garantizada a todos los niños en un clima psicológicamente sano, a que cada uno se ocupe con pasatiempos higiénicos, si alguien está descontento que siga el “tratamiento” destinado a “arreglar” su problema. Bien entendida, la vida estará tan vacía de sentido que será conveniente someter a los individuos a manipulaciones biológicas o psicológicas, sean destinadas a erradicar toda veleidad de poder, sean destinadas a sublimar esta sed de poder en algún pasatiempo inofensivo. En una sociedad como esa, estos seres humanos manipulados vivirán quizás felices; pero la libertad les será totalmente extraña. Les habrán reducido al rango de animales domésticos”.

El autor de este pasaje es Theodore Kraczynski, alias Unabomber, pero no se descubría hasta el final de la página. Lejos de mis ideas exaltar sus méritos. En diecisiete años de campaña terrorista, sus bombas han matado a tres personas y han herido a muchas otras. Una de las gravemente heridas fue mi amigo David Gelenter, uno de los investigadores informáticos más brillantes de nuestra época, un verdadero visionario. Además, como muchos de mis colegas, yo había sentido que podía ser la víctima siguiente.

Los actos de Kraczynski son criminales y, a mis ojos, la marca de una locura asesina. Estamos claramente en presencia de un “luddita”. Sin embargo esta simple constatación no invalida su argumentación. Me cuesta, pero he de admitirlo: en este pasaje preciso, su razonamiento es digno de atención. He sentido la necesidad imperiosa de tomar al toro por los cuernos.

La visión distópica de Kraczynski expone el fenómeno de las consecuencias involuntarias, problema bien conocido en la creación y uso de toda tecnología. Este fenómeno nos lleva directamente a la ley de Murphy en virtud de la cual “todo lo que pueda disfuncionar disfuncionará” (se trata en realidad de la ley de Finagle, aserción que, naturalmente, de golpe la razón a su autor). El uso inmoderado de los antibióticos a generado un problema que, entre todos los otros de este tipo, es quizás el más grave, la aparición de bacterias antibiótico-resistentes, infinitamente más peligrosas. Efectos similares han sido observados cuando, para eliminar al

Page 32: Trabajo de Nuevas Tecnologías-1

mosquito de la malaria, se ha recurrido al DDT, este animal se ha vuelto resistente al producto destinado a destruirlo. Además los parásitos ligados a esta enfermedad han desarrollado genes multiresistentes.

La causa de un número tan grande de imprevistos parece clara: los sistemas que entran en juego son complejos, suponen una interacción entre ellos y las numerosas partes concernidas les reenvían un feed-back. La menor modificación de un sistema tal provoca una onda de choque de consecuencias imprevisibles. Esto es más cierto desde que el hombre interviene en los procesos.

Comencé a hacer leer a mis amigos el pasaje de Kraczynski citado en La era de las máquinas espirituales, les tendía el libro de Kurzweill, les dejaba tomar conciencia de la cita y observaba su reacción una vez descubrían quien era el autor. Por la misma época, descubrí el libro de Hans Moravec, Robot: madre máquina o la mente trascendente. Moravec, eminencia entre las eminencias en las investigaciones en robótica, a participado en la creación de uno de los más grandes programas mundiales en este tema, en la Carneige Mellon University. Robot me ha proporcionado material suplementario para testar a mis amigos. Este insistía de una manera sorprendente en el sentido de las tesis de Kraczynski. E aquí un ejemplo:

A corto término (principio del siglo XXI).

“Una especia biológica sobrevive muy raramente al encuentro con una especie rival que presente un grado de evolución superior. Hace diez millones de años, América del Norte y del Sur estaban separadas, elitismo de Panamá estaba entonces sumergido. Como en Australia hoy en día, América del Sur estaba poblada de mamíferos marsupiales, concretamente, el equivalente de las ratas, los ciervos y los tigres, todos equipados con la bolsa ventral. Cuando el istmo unió las dos Américas, unos pocos miles de años fueron suficientes para que las especies de mamíferos placentados, dotados de metabolismos, sistemas reproductores y nerviosos ligeramente más eficaces, desplazasen y eliminasen la casi totalidad de los marsupiales del sur.

En un contexto de liberalismo sin freno, robots que presentasen un grado de evolución superior no dejarían de modificar al hombre del mismo modo que los

Page 33: Trabajo de Nuevas Tecnologías-1

placentados de América del norte modificaron a los marsupiales del sur (igual como el hombre a afectado a multitud de especies). Las industrias de la robótica libraran una feroz competición en la carrera por la materia, la energía y el espacio, aumentando de paso sus beneficios para situarse a un nivel inalcanzable a los hombres. Desde este momento, incapaz de subvenir sus necesidades, el hombre biológico se verá situado fuera de la existencia.

Nos queda sin duda una reserva de oxígeno, en la medida en que no vivimos en un contexto de liberalismo sin frenos. Los gobiernos regulan ciertos comportamientos colectivos, priorizando mediante el impuesto.

Con una tal regulación, ejercida juiciosamente, las poblaciones humanas podrán beneficiarse ampliamente del trabajo de los robots, por un buen plazo de tiempo.”

Un ejemplo clásico de distopía, y hay que tener en cuenta que Moravec solo está calentando motores. Más adelante, explica como en el siglo XXI, nuestra tarea principal consistirá en “velar para asegurar la cooperación indefectible de las industrias de la robótica” votando leyes que las obliguen a ser “amables”. Además recuerda que “una vez modificado en robot superinteligente no-conducido” el hombre puede revelarse como un ser extremadamente peligroso. La tesis de Moravec es que en un tiempo, los robots nos sucederán: para él, la humanidad está claramente destinada a la desaparición.

Dicho esto se imponía una conversación con mi amigo Danny Hillis. Danny Hillis ha alcanzado la celebridad como presidente de la Thinking Machines Corporation, que ha fabricado un superordenador paralelo extremadamente potente. A pesar de mi título actual de Jefe Científico de Sun Microsystemes, yo soy más un arquitecto de ordenadores que un científico en el sentido estricto, y respeto a Danny por su conocimiento de la información y de las ciencias físicas y sentido común mesurado. Por otra parte Danny es un futurólogo respetado, alguien que ve a largo plazo, hace cuatro años que ha creado la Long Now Foundation, que trabaja actualmente sobre un reloj construido para durar diez mil años. El objetivo es llamar la atención sobre la propensión de nuestra sociedad de examinar los eventos sólo sobre un número de años lamentablemente corto (ver “Test of Time”, Wired 8.03, p 78) http://www.wired.com/wired/archive/8.03/eword.html?pg=2.

Page 34: Trabajo de Nuevas Tecnologías-1

He volado pues a los Angeles especialmente para hablar con Danny y su mujer, Pati. Según una rutina, ya muy ensayada, les he facilitado las ideas y los pasajes que yo consideraba tan peligrosos. La respuesta de Danny –referencia clara al escenario del hombre fusionado con la máquina imaginado por Kurzweill- a aflorado prontamente, y me ha sorprendido: Los cambios serán progresivos, se ha contentado en decir, y nos acostumbraremos a ellos.

Pero en definitiva, esto no me asombraba más que lo que sigue. En el libro de Kurzweil, había encontrado una cita de Danny que decía “amo a mi cuerpo, como todo el mundo, pero si un cuerpo de silicio me permite vivir hasta 200 años, lo tomo”. Ni el proceso en sí mismo, ni los riesgos que entraña parecían inquietarle lo más mínimo, Contrariamente que a mí.

A fuerza de hablar de Kurzweil, de Kraczynski y de Moravec y de dale vueltas a sus ideas en mi cabeza, me acordé de una novela que había leído hacia casi 20 años antes. La White Plague, de Frank Herbert, en ella un investigador en biología molecular es poseído por la locura después de la muerte insensata de toda su familia. Para vengarse, fabrica y difunde unos bacilos de una peste desconocida y altamente contagiosa que mata a gran escala, pero de modo electivo (afortunadamente Kraczynski, es matemático y no investigador en biología molecular). Otro recuerdo era el de Borg de “Star Trek”: Un enjambre de criaturas mitad biológicas, mitad robóticas, que se distinguen por una neta propensión a la destrucción. Entonces, puesto que las catástrofes tipo “Borg” son clásicas en la ciencia-ficción, ¿porqué no me había inquietado tanto como estas distopías en el tema de la robótica?, ¿Y porqué razón los demás no se inquietaban ante estos escenarios pavorosos?

La respuesta a esta cuestión reside sin duda en nuestra actitud frente aquello que es nuevo, es decir en nuestra tendencia a la familiaridad inmediata y a la aceptación incondicional de las cosas. Si los avances tecnológicos no son más que sucesos rutinarios, o casi, será necesario mirar las cosas de frente: las tecnologías más cruciales del siglo XXI –la robótica, la ingeniería genética y las nanotecnologías- representan una amenaza diferente de las tecnologías anteriores. Concretamente, los robots, los organismos genéticamente modificados y los “nanorobots” tienen en común un factor desmultiplicante: son capaces de

Page 35: Trabajo de Nuevas Tecnologías-1

autoreproducirse. Una bomba explota solo una vez; un robot, por el contrario, puede proliferar y escapar rápidamente a todo control.

Después de veinticinco años, mi trabajo versa esencialmente sobre las redes informáticas, donde la posibilidad de enviar y recibir mensajes crea la posibilidad de una reproducción no controlada. Si, en un ordenador o en una red informática, la duplicación puede provocar daños, la consecuencia última será, en el peor de los casos, una puesta fuera de servicio del aparato o la red, o un bloqueo del acceso a esta red. Pero la autoreproducción incontrolada en el dominio de estas tecnologías más recientes nos hace correr un peligro mucho más grave: el de una substancial degradación del mundo físico.

Además, cada una de estas tecnologías nos hace contemplar su promesa secreta, y la visión que nos ofrece no es otra que la cuasi inmortalidad presente en los sueños de robot de Kurzweil. La ingeniería genética permitirá pronto encontrar los tratamientos adecuados para tratar, incluso erradicar la mayor parte de las enfermedades, las nanotecnologías y la nanomedicina permitirá tratar el resto. Combinadas las unas y las otras podrán prolongar nuestra esperanza de vida y mejorar su calidad de una manera significativa. No queda menos esperar que, actuando estas diversas tecnologías, una secuencia de pequeñas etapas –sensatas cuando son tomadas aisladamente- se acabe desembocando en una acumulación masiva de poder y, por este hecho, en un peligro indudable.

¿Qué diferencia hay con el siglo XX? Ciertamente, las tecnologías ligadas a las armas de destrucción masiva (NBQ) –nuclear, biológica y química- eran pujantes, y el arsenal hacia pesar sobre nosotros una amenaza extrema. Sin embargo la fabricación de ingenios atómicos suponía, al menos durante un tiempo, el acceso a materiales raros –incluso inaccesibles- así como a información altamente confidencial. Además los programas de armamento biológico y químico exigían a menudo actividades a gran escala.

Las tecnologías del siglo XXI (GNR) –genética, nanotecnología y robótica- son portadoras de un poder tal que tienen la capacidad de engendrar variedades diferentes de accidentes y abusos totalmente inéditos. Circunstancia agravante es que estos accidente y abusos están al alcance de individuos aislados o de grupos restringidos. En efecto estas tecnologías no precisan ni el acceso a instalaciones

Page 36: Trabajo de Nuevas Tecnologías-1

de gran envergadura, ni a materiales raros; la única condición para poder recurrir a ellos es la posesión del saber requerido.

En consecuencia la amenaza a la que nos enfrentamos hoy día, no se limita únicamente a las armas de destrucción masiva. Hay que añadir la de la adquisición de unos conocimientos, que por ellos mismos, permiten esta destrucción a gran escala. El potencial de aniquilamiento se multiplica por la autoreproducción.

No me parece irrazonable afirmar que habiendo tocado las cumbres del mal absoluto, nos aprestemos a superar estos límites. Sorprendente y temible, este mal se extiende más allá del arsenal devastador patrimonio de los estados nación, para caer, hoy en día, en manos de extremistas aislados.

Nada, en la manera en que me he implicado en el mundo de los ordenadores, me hacía presagiar que asuntos tales se presentarían un día ante mí.

Mi motor ha sido siempre el de plantear preguntas y buscar respuestas. A la edad de tres años como ya leía, mi padre me inscribió en la escuela elemental, donde, sentado en las rodillas del director, le leía historias. Comencé la escuela anticipadamente, me evadía entre los libros, tenía una sed de aprender increíble. Formulaba tantas preguntas que a menudo perturbaba el espíritu de los adultos.

Adolescente, me interese por las ciencias y las tecnologías. Tenia la idea de hacerme radioamateur, pero no disponía de dinero suficiente para pagarme el material. La estación del radioamateur era el internet de entonces: muy compulsivo y siempre solitario. Aparte de las consideraciones financieras, mi madre paró el tema: nada de encerrarse en uno mismo, yo ya era suficientemente asocial.

En el instituto descubrí los grandes autores de ciencia-ficción. Recuerdo especialmente a Have Spacesuit Will Travel de Heinlein, y él Yo Robot de Asimov, con sus “tres reglas de la robótica”. Las descripciones de los viajes en el

Page 37: Trabajo de Nuevas Tecnologías-1

espacio me encantaban. Deseaba un telescopio para observar las estrellas, pero no tenía suficiente dinero para comprarlo o para construírmelo yo mismo, escrutaba, a modo de consolación, los libros prácticos sobre el tema. Volaba alto, pero con el pensamiento.

El jueves por la noche, era día de bolera. Mis padres iban a hacer sus partidas y nosotros, los chicos, nos quedábamos solos en la casa. Era el día de “Star Trek”, de Gene Roddenberry, estábamos en la época de los episodios originales. Esta serie televisiva me marcó profundamente. Llegué a aceptar su idea de que el hombre tenía un porvenir en el espacio, a la occidental, con sus héroes invencibles y sus aventuras extraordinarias. La visión de Roddenberry de los siglos futuros reposaba sobre valores morales sólidos, expresados en unos códigos de conducta como “la primera directiva”: No interferir en el desarrollo de civilizaciones menos avanzadas en el plano tecnológico. Esto ejercía sobre mi una fascinación sin límites; en la dirección de este futuro no encontrábamos robots, sino seres humanos con una ética. Y yo hice, parcialmente mío, el sueño de Roddenberry.

En el instituto mi nivel de matemáticas era excelente, y cuando fui a la Universidad de Michigan para preparar mi licenciatura de ingeniero, me inscribí inmediatamente en matemáticas superiores. Resolver problemas matemáticos era un bello desafío, pero con los ordenadores descubrí una cosa netamente más interesante: Una máquina en la que se podía introducir un programa para resolver un problema, y la máquina verificaba rápidamente si la solución era buena. El ordenador tenía una idea clara de lo que era exacto e inexacto, de lo verdadero y de lo falso. ¿Mis ideas eran esencialmente justas? La máquina me lo podía decir. Todo esto era muy seductor.

Por suerte, conseguí un trabajo en la programación de los primeros superordenadores, descubrí las extraordinarias capacidades de las nuevas unidades que permitían, gracias a la simulación numérica, elaborar conceptos de alta tecnología. Llegué a la Universidad de Berkeley, a mediados de los años 70, para seguir mi tercer ciclo, empece a penetrar en el corazón de las máquinas para inventar mundos nuevos, me acostaba tarde, los días en que me acostaba. Resolviendo problemas. Redactando los códigos que esperaban ser escritos.

Page 38: Trabajo de Nuevas Tecnologías-1

En The Agony and the Ecstasy, la biografía novelada de Miguel Angel, Irving Stone describe con un realismo conmovedor como el escultor “percibe el secreto” de la piedra, deja que sus visiones guíen el cincel para liberar las estatuas de su caparazón mineral. Del mismo modo en mis momentos de euforia más intensos, era como si el programa surgiese de las profundidades del ordenador, Una vez acabado en mi espíritu tenía el sentimiento de que estaba en la máquina, esperando el momento de su liberación. Desde esta óptica, no pegar ojo en toda la noche me parecía un precio irrisorio a pagar para darle la libertad, para que mis ideas tomasen forma.

Pasados algunos años, en Berkeley, comencé a mandar algunos programas que había concebido –un sistema Pascal de instrucciones, utilidades UNIX, así como un editor de texto llamado VI (que para mi sorpresa todavía se utiliza pasados 20 años)- a personas igualmente equipadas con pequeños PDP-11 y de miniordenadores VAX. Estas aventuras en el país de software dieron lugar finalmente a la versión Berkeley del sistema operativo UNIX, la cual, en el plano personal, produjo un suceso desastroso: la demanda fue tan grande que no terminé nunca mi doctorado. Por el contrario fui reclutado por Darpa para poner en internet la versión Berkeley del sistema UNIX, e igualmente corregirla para hacerla fiable y capaz de hacer correr aplicaciones de investigación de gran envergadura. Todo ello me entusiasmó locamente y fue muy gratificante.

Y, francamente, no veía en ninguna parte la sombra de un robot, ni allí ni en ninguna parte.

Finalmente al inicio de los años 80, las versiones de UNIX conocieron un gran éxito, y pronto, lo que fue en su inicio, un pequeño proyecto personal, encontró su financiación y se dotó de efectivos. Entonces, como ahora en Berkeley, es menos problema el dinero que los metros cuadrados. Teniendo en cuenta la envergadura del proyecto y los efectivos necesarios, el espació faltaba. Aparecieron entonces los otros miembros fundadores de Sun Microsystems, y aproveché la ocasión para unir nuestras fuerzas. En Sun, las jornadas interminables fueron cotidianas hasta la aparición de las primeras estaciones de trabajo y de PC y tuve el placer de participar en la elaboración de tecnologías punteras en el dominio de los microprocesadores y de las tecnologías internet como Java y Jini.

Page 39: Trabajo de Nuevas Tecnologías-1

Con todo esto, creo, que dejo claro que no soy un luddita, bien al contrario. Yo siempre he tenido la busca de la verdad científica en la más grande estima, y siempre he estado convencido de la capacidad de la gran ingeniería de engendrar el progreso material. La revolución industrial a mejorado nuestra vida de un modo extraordinario en el curso de los últimos siglos y, en cuanto a mi carrera, mis votos han sido siempre producir soluciones útiles a problemas reales.

No he quedado decepcionado. Mi trabajo ha tenido repercusiones inesperadas, y su utilización a gran escala ha superado mis sueños más locos. E aquí que durante 20 años me he roto la cabeza en producir ordenadores suficientemente fiables para mí (está todavía lejos), y para intentar acrecentar el confort de utilización (un objetivo más lejano todavía hoy). Así pues si ciertos progresos se han conseguido, los problemas que subsisten parecen todavía descorazonadores.

Sin embargo, aunque conciencia de los dilemas morales ligados a las consecuencias de ciertas tecnologías en terrenos como la investigación en armamento, lejos de mí la idea de que un día podrían surgir en mi propio sector. O al menos, tan prematuramente.

Atrapado en el vértice de una transformación, es sin duda difícil ver el impacto real de las cosas. Que estar en el terreno de las ciencias o de las tecnologías incapacita para evaluar las consecuencias de tus invenciones parece ser un defecto extendido entre los investigadores, en la borrachera del descubrimiento y de la innovación. Inherente a la investigación científica, el deseo natural de saber nos quema tanto después de tanto tiempo que neglijimos marcar una pausa para reflexionar sobre esto: El progreso en el origen de la tecnología cada vez más innovadora y más pujante, puede escapársenos y desencadenar un proceso autónomo.

He llegado a la conclusión que no es ni en el trabajo de los investigadores en informática, ni en el de los diseñadores de ordenadores o de los ingenieros a los que se debe el avance significativo en las tecnologías de la información, sino al de los investigadores en física. Al principio de los años 80, los físicos Stephen Wolfram y Brosl Hasslacher me iniciaron en la teoría del caos y de los sistemas no lineales. En el curso de los años 90, conversaciones con Danny Hillis, el biólogo Stuart Kauffman, el premio Nobel de física Murray Gell-Mann, y otros me han

Page 40: Trabajo de Nuevas Tecnologías-1

permitido descubrir los sistemas complejos, Más recientemente, Hasslacher y Mark Reed, ingeniero y físico de pulgas, me han iluminado sobre las posibilidades extraordinarias de la electrónica molecular.

En el cuadro de mi propio trabajo, siendo el conceptor asociado de tres arquitecturas de microprocesador –Sparc, Pico Java y MAJC- y además de diversas de sus implementaciones, tengo el beneficio de una plaza para verificar personalmente el buen fundamento de la ley de Moore. Durante decenios esta ley nos ha permitido estimar con precisión la tasa exponencial de perfeccionamiento tecnológico en materia de semiconductores. Hasta el año pasado tenía el convencimiento de que hacia el 2010, se alcanzarían ciertos límites físicos, y que por este hecho, la tasa de crecimiento caería. A mi parecer ninguna señal indicaba que una nueva tecnología aparecería suficientemente pronto para mantener la cadencia sostenida.

Pero los recientes progresos conmovedores y rápidos, en el terreno de la electrónica molecular –donde los átomos y las moléculas aisladas toman el papel de los transistores litográficos -, así como en el sector de las tecnologías a escala “nano” que van ligadas, parecen indicar que tendremos que mantener o acrecentar la tasa de crecimiento anunciada por la ley de Moore durante aun 30 años. Así en el horizonte del 2030, debemos estar capacitados para producir, en cantidades grandes, unidades un millón de veces más potentes que los ordenadores personales de hoy en día…. Suficientemente potentes para realizar los sueños de Kurzweil y de Moravec.

La combinación de esta formidable potencia informática por parte del progreso realizado en el campo de la manipulación en el terreno de las ciencias físicas y por otra parte los descubrimientos cruciales en el campo de la genética, tendrán como consecuencia liberar un despliegue en el que el poder de transformación será fenomenal. Estas acumulaciones permiten vislumbrar una completa redistribución de cartas para lo bueno y para lo malo. Los procesos de duplicación y de desarrollo, hasta ahora circunscritos al mundo físico, están hoy en día a la puerta del hombre.

Creando programas y ordenadores no he tenido nunca la sensación de desarrollar ni una sola máquina inteligente. Teniendo en cuenta la gran fragilidad tanto del

Page 41: Trabajo de Nuevas Tecnologías-1

software como del hardware y de las capacidades de reflexión claramente nulas que muestra una máquina, yo siempre había situado esta posibilidad en un futuro muy lejano, incluso como simple posibilidad.

Pero hoy en día con la perspectiva de una potencia informática alcanzando a la humana en el horizonte del 2030, toma forma una nueva idea: aquella de que quizás trabajo en la elaboración de útiles capaces de producir una tecnología que podrá substituir a nuestra especie. En este punto ¿cuáles son mis sentimientos? Un profundo malestar. He luchado durante toda mi carrera para conseguir programas fiables, la posibilidad de un futuro netamente menos rosa de lo que algunos quisieran imaginar me parece hoy día más que probable. Si he de creer en mi experiencia personal, tenemos la tendencia a sobrestimas nuestra capacidad de conceptores.

Dada la potencia temible de estas nuevas tecnologías, ¿no deberíamos preguntarnos sobre los mejores métodos de coexistir con ellas? Y si, en un término más o menos largo, pueden amenazar nuestra especie, ¿no deberíamos avanzar con la más gran prudencia?

El sueño de la robótica es, primeramente, conseguir que máquinas “inteligentes” hagan el trabajo en nuestro lugar, de modo que, retornando al Edén perdido, podamos vivir una vida de ocio. En su versión del hecho, en Darwin Among the machines, George Dyson nos pone en guardia: “en el juego de la vida y de la evolución, tres jugadores se sientan en la mesa: el ser humano, la naturaleza y las máquinas. Yo me alineo claramente al lado de la naturaleza. Pero la naturaleza, temo que esté al lado de las máquinas”. Moravec le da la razón en este punto, pues de declara convencido de nuestras pocas posibilidades de supervivencia en caso de un encuentro con la especie superior de los robots.

¿En que horizonte un robot “inteligente” de este tipo puede ver la luz del día? El próximo salto delante de las capacidades informáticas parece ser que podría ser en el 2030. Una vez que un primer robot inteligente es puesto a punto, solo queda franquear un pequeño paso para crear una especie entera, dicho de otra manera para crear un robot inteligente capaz de duplicarse, de fabricar copias elaboradas del mismo.

Page 42: Trabajo de Nuevas Tecnologías-1

Un segundo sueño de la robótica, cree que, poco a poco, nuestra tecnología robótica nos substituirá y que, gracias a la transferencia de la conciencia, accederemos a la cuasi inmortalidad. Es precisamente a este proceso que, según Danny Hillis, nos hemos de habituar, y es que el que igualmente expone Kurzweil en The Age of Spiritual Machines (esto se empieza a ver con la implantación en el cuerpo humano de dispositivos informáticos, como atestigua la cobertura informativa de Wired 8.02 http://www.wired.com/wired/archive/8.02/full.html).

Pero si nos transformamos en extensiones de nuestras tecnologías, ¿cuáles serán las posibilidades de seguir siendo nosotros mismos, e incluso de seguir siendo seres humanos? Me parece que una existencia de robot no tiene nada en común con una existencia de ser humano en el sentido que le queramos dar, que en ningún caso los robots serán nuestros hijos, y que siguiendo esta vía nuestra humanidad podría perderse.

La ingeniería genética promete una revolución agrícola con aumento de cosechas y disminución del uso de pesticidas, nos promete crear unas decenas de miles de especies inéditas de plantas, bacterias, virus y animales; nos promete reemplazar, o al menos complementar, la reproducción con la clonación, producir medicinas para innumerables enfermedades, aumentar nuestra esperanza de vida y nuestra calidad de vida; y mucho más… mucho más de otras cosas. Hoy en día no somos totalmente conscientes: estos profundos cambios en el terreno de la ciencia biológica van a intervenir continuamente y van a poner en cuestión todas las nociones que tenemos de la vida.

Tecnologías como el clonaje humano en particular, estamos sensibilizados en las cuestiones fundamentales de ética y de moral que se plantean, Usar la ingeniería genética para una reestructuración del género humano en varias especies distintas e desiguales, por ejemplo, pone en peligro la noción de igualdad, componente esencial, por sí misma, de nuestra democracia.

Teniendo en cuenta la potencia formidable que encierra la ingeniería genética, no es de extrañar que cuestiones fundamentales de seguridad limiten su uso. Mi amigo Amory Lovins a firmado recientemente, en colaboración con Hunter Lovins,

Page 43: Trabajo de Nuevas Tecnologías-1

una editorial que proporciona un punto de vista ecológico sobre un cierto número de estos peligros. Entre sus preocupaciones figura que “la nueva botánica dirige el desarrollo de las plantas según su prosperidad, no siguiendo la evolución natural, sino desde el punto de vista de la rentabilidad económica” (ver A Tale of Two Botanies, page 247 o http://www.wired.com/wired/archive/8.04/botanies.html) Amory Lovins trabaja desde hace años en las relaciones energía/recursos estudiando los sistemas creados por el hombre según el método llamado “wole system view”, una aproximación global que permite a menudo encontrar soluciones simples e inteligentes a problemas que, examinados bajo un ángulo diferente, pueden parecer delicados.

Algún tiempo después de haber leído la editorial de los Lovins, he descubierto en la edición del 19 de noviembre de 1999 del New York Times una nota tratando sobre los organismos genéticamente modificados en la agricultura, firmada por Gregg Easterbrook bajo el título “Alimentos del futuro: Un día la vitamina A estará integrada en vuestro grano de arroz. Salvo en caso de victoria de los Ludditas”.

¿Serán Mory y Hunter Lovins ludditas? Evidentemente no. Nadie duda, imagino, de los posibles beneficios del arroz dorado, con su vitamina A integrada en la medida en que se desarrolle respetando los potenciales peligros derivados de franquear las barreras entre las especies.

Como atestigua el editorial de los Lovins, la vigilancia de los peligros inherentes de la ingeniería genética se están reforzando. En gran medida, la población tiene conocimiento de alimentos a base de organismos genéticamente modificados y expresa malestar frente a ellos, parece contraria a su circulación sin una etiqueta adecuada.

Pero la ingeniería genética ha recorrido ya un buen camino. Como lo señalan los Lovins, la USDA ya ha autorizado la venta ilimitada de una cincuentena de productos agrícolas genéticamente modificados. Así es que, hoy en día, más de la mitad de la soja y un tercio del maíz del mundo contienen genes transferidos, surgidos del cruce con otras formas de vida.

Page 44: Trabajo de Nuevas Tecnologías-1

En este contexto no faltan las grandes apuestas, mi principal temor en el dominio de la ingeniería genética es que esta tecnología pueda dar el poder de desencadenar una “peste blanca” - militarmente, accidentalmente o por un acto terrorista deliberado-.

Las numerosas maravillas de las nanotecnologías fueron originalmente imaginadas por el premio Nobel de física Richard Feynman, en un discurso en 1959, publicado seguidamente bajo el título “There’s plenty of room at the bottom”. A mediados de los años 80, un libro me impresionó mucho, se trataba d’Engines of Creation de Eric Drexler. En esta obra el autor describe en términos vibrantes como la manipulación de la materia al nivel de átomo puede permitir construir un futuro utópico con profusión de bienes materiales, en el cual cada cosa o casi podría ser producida a un coste irrisorio, y donde, gracias a la nanotecnología y a la inteligencia artificial, cualquier enfermedad o problema físico podrá ser resuelto.

Siguiendo la huella del primer libro, otro libro, esta vez titulado por Drexler Unbounding the future: The Nanotechnology Revolution, imaginaba los cambios susceptibles de ocurrir en un mundo dotado de “ensambladores” a nivel molecular. Gracias a estos micromotores, y por precios increíblemente bajos sería posible producir energía solar, reforzar las capacidades del sistema inmunitario para sanar enfermedades, desde el cáncer a un simple resfriado, limpiar el ambiente completamente, Concretamente estos “ensambladores” tendrían la capacidad de producir en serie no importa que producto por un precio que no excedería al de la madera, hacer los viajes en el espacio más factibles que los cruceros transoceánicos de hoy en día, o incluso restablecer las especies desaparecidas.

Recuerdo la impresión favorable que la lectura de Engines of Creation me dejó vis a vis de las nanotecnologías. Al cerrar este libre el hombre tecnológico que soy fue ganado por un sentimiento de paz, en el sentido de que dejaba augurar un progreso fenomenal. Este progreso era no-solo posible sino quizás ineludible. Si las nanotecnologías estaban en nuestro futuro, entonces la solución de una multitud de problemas que se me planteaban no revestían el mismo carácter de urgencia. Ya llegaría el futuro utópico de Drexler en su momento, mientras aprovecharse un poco de la vida aquí y ahora. Teniendo en cuenta esta visión, trabajar sin relajarse tanto de día como de noche no tenía mucho sentido.

Page 45: Trabajo de Nuevas Tecnologías-1

El sueño de Drexler a sido, igualmente, para mí una fuente de francas diversiones. Me sorprendí más de una vez sorprendiendo a aquellos que no habían oído hablar nunca de las virtudes extraordinarias de las nanotecnologías. Después de haberlos despabilado con las descripciones de Drexler, les asignaba una pequeña misión de mi creación: “recurriendo a los métodos nanotecnológicos, producidme un vampiro. Para obtener puntos suplementarios cread el antídoto”.

Las maravillas en cuestión llevaban en ellas peligros reales, y de estos peligros tengo una conciencia muy aguda. Como dije en 1989 en una conferencia “no podemos sobrepasar límites en nuestra disciplina sin tomar en consideración las condiciones éticas”. Pero las conversaciones que tuve a continuación con físicos me han convencido: según toda verosimilitud las nanotecnologías eran un sueño, o en todo caso no serían operacionales inmediatamente. Poco tiempo después, me instalé en Colorado, donde había montado un equipo de concepción y diseño de altas tecnologías, antes de que mi interés me llevase a los programas destinados a internet, prioritariamente sobre las ideas que originaron el lenguaje Java y el protocolo Jini.

Y después, el último verano, Brosl Hasslacher me lo ha anunciado: La electrónica a escala “nano” era ya realidad. Esta vez si, podemos hablar de golpe de efecto, en todo caso para mí, pero también para mucha gente, esta información hizo bascular mi punto de vista sobre el tema de las nanotecnologías. Me traslado a Engines of Creation. Me trasladó de nuevo al trabajo de Drexler 10 años después, estaba consternado ante el poco caso que había hecho de una larga sección del libro titulada “esperanzas y peligros”, donde figuraba un debate alrededor del tema de las nanotecnologías como potenciales ingenios de destrucción. De hecho, escribiendo ahora estas “puestas en guardia”, estoy sorprendido de la aparente ingenuidad de sus propuestas preventivas; estimo hoy en día los riesgos como infinitamente más graves que en el momento de publicar esta obra (Drexler, habiendo anticipado y expuesto muchos problemas técnicos y políticos ligados a las nanotecnologías, a lanzado el Foresight Institute a finales de los 80, para ayudar a la sociedad a prepararse para las tecnologías de punta, en particular, las nanotecnologías).

Según todas las posibilidades, el descubrimiento capital que no llevará a los “ensambladores” se producirá en los próximos 20 años. La electrónica molecular, el dominio más reciente de las nanotecnologías, donde las moléculas aisladas

Page 46: Trabajo de Nuevas Tecnologías-1

constituyen los elementos del circuito, deberá evolucionar rápidamente y proporcionar colosales beneficios en el curso del decenio próximo, provocando así una inversión masiva y creciente en todas las nanotecnologías.

Desgraciadamente, como para la tecnología nuclear, el uso de las nanotecnologías con fines destructivos es significativamente más fácil que su uso con fines constructivos. Tienen aplicaciones militare y terroristas muy claras. Además, no hay que estar animado por pulsiones suicidas para liberar un “nanodispositivo” de destrucción masiva, su vocación puede ser la destrucción selectiva, con único objetivo, por ejemplo, una zona geográfica precisa o un grupo de individuos genéticamente distintos.

Una de las consecuencias inmediatas de comercios como el de fausto, dando acceso al inmenso poder que confieren las nanotecnologías, es la amenaza temible que hace pesar sobre nosotros: una posible destrucción de la biosfera, indispensable para la vida.

Drexler lo expone en los términos siguientes:

“Plantas con hojas más eficaces que nuestros captadores solares actuales podrían vencer a las plantas reales e invadir la biosfera de un follaje incomestible. “Bacterias” omnívoras resistentes podrían vencer a las verdaderas bacterias, diseminarse en el aire como polen, reproducirse rápidamente y, en el espacio de unos días, reducir a nada la biosfera. “Replicadores” peligrosos podrían volverse demasiado resistentes, demasiado pequeños y demasiado prontos a reproducirse para poder ser detenidos –en todo caso si no nos anticipamos. Ya hemos hechos suficiente daño domesticando virus y drosophilas.

“Esta amenaza, los expertos en tecnología la han llamado “gray goo problem” (problema gris y gelatinosos). Si nada indica que nubes de replicadores incontrolados formaran automáticamente una masa gris y gelatinosa, esta apelación indica que replicadores dotados de una tal pujanza devastadora serian más dañinos que una simple especie de mala hierba.

Page 47: Trabajo de Nuevas Tecnologías-1

“El “gray goo problem” deja aparecer claramente una cosa: tratándose de ensambladores y de su reproducción no podemos permitirnos ciertos accidentes”.

Acabar engullidos en una masa gris y viscosa sería sin duda un final deprimente para nuestra aventura sobre la tierra, mucho peor que el simple fuego o el hielo. Además, podría sobrevenir a continuación de un simple, ¡hop!, incidente de laboratorio.

Es particularmente el poder de autoreproducción en el terreno de la genética, la nanotecnología i de la robótica (GNR) lo que debería incitarnos a hacer una alto en el camino. La autoreproducción es el “modus operandis” de la ingeniería genética la cual utiliza la maquinaria de la célula para duplicar sus propias estructuras y constituye el riesgo de “gray goo” número uno subyacente a las nanotecnologías. Los escenarios en la línea de Borg, de robots enloquecidos, reproduciéndose y mutando para sustraerse a las restricciones éticas impuestas por sus creadores son hoy día clásicos de libro y película de ciencia-ficción. No está excluido que en definitiva, el fenómeno de la autoreproducción se revela más fundamental de lo que creemos, y que de hecho, su conducción será más difícil, incluso imposible. Un artículo reciente de Stuart Kauffman publicado en Nature, titulado “Autorreproducción: incluso los péptidos se meten”, se recrea en un descubrimiento que establece que un polipéptido de 32 aminoácidos tiene la capacidad de “autocatalizar su propia síntesis”. En este momento, incluso evaluando mal el valor exacto de una tal capacidad, Kauffman observa que esto puede abrir una vías de síntesis molecular autoreproductiva sobre una base significativamente más extensa que la establecida por los pares de bases de Watson-Crick.

Realmente, hace unos años que estamos alertados sobre los peligros inherentes a una vulgarización de los GNR, una saber que por si solo, hace posible la destrucción masiva. Pero estas advertencias han sido poco difundidas, y los debates públicos no han estado a la altura del hecho. No sacamos ningún provecho desechando una sensibilización del público.

Page 48: Trabajo de Nuevas Tecnologías-1

Las tecnologías nuclear, biológicas y químicas (NBQ) utilizadas en las armas de destrucción masiva del siglo XX, tenían y quedaban restringidas a una vocación prioritariamente militar, eran desarrolladas en los laboratorios del Estado. Contraste violento, las tecnologías GNR de siglo XX se distinguen por los usos claramente comerciales y son casi exclusivamente desarrolladas por empresas del sector privado. En la era de los negocios triunfantes, la tecnología –flanqueada por la ciencia, en el papel de sirvienta- esta en trance de producir toda una gama de invenciones, por así decirlo, mágicas, fuentes de beneficios portentosos, sin punto de comparación con lo que hemos conocido hasta ahora. Acariciamos los sueños de estas nuevas tecnologías en el seno de un sistema que en lo sucesivo será indiscutido, con motivaciones financieras y presiones concurrenciales: un capitalismo planetario.

“Es la primera vez en la historia de nuestro planeta que una especia, sea cual sea su naturaleza, se convierte en un peligro para ella misma –y para la mayor parte de las otras- a través de sus propios actos deliberados.

“Esto podría ser la progresión clásica, inherente a numerosos mundos: un planeta, recién formado, gira plácidamente alrededor de su estrella, la vida aparece dulcemente; una procesión calidoscópica de criaturas evoluciona; la inteligencia emerge, acrecentando de una manera significativa la capacidad de sobrevivir (en todo caso hasta cierto punto); y después la tecnología es inventada. Se abre paso la idea de que existen ciertas cosas tales como las leyes de la naturaleza, que son verificables experimentalmente, y que la comprensión de estas leyes permite tanto crear la vida como suprimirla, en una escala sin precedentes tanto en un caso como en otro. La ciencia les confiere poderes inmensos. En un instante, inventan máquinas capaces de cambiar la faz de la tierra. Ciertas civilizaciones van más lejos, determinan lo que es bueno hacer y lo que no hay que hacer, y atraviesan victoriosamente las eras peligrosas. Otras, menos afortunadas, son menos prudentes y perecen”.

Debemos estas líneas a Carl Sagan, describiendo en 1994 en “Pale Blue Dot” su visión del futuro de la especie humana en el espacio. No es hasta hoy me doy cuenta de que su visión era tan penetrante, y como me falta su voz y continuará faltándome cruelmente. De todas sus contribuciones, sirviéndose de una elocuencia digna de elogio, el buen sentido no era la menos; una cualidad que, al

Page 49: Trabajo de Nuevas Tecnologías-1

igual que la humildad, parece faltar a muchos eminentes promotores de las tecnologías de siglo XXI.

Recuerdo, cuando era niño, mi abuela se declaraba ferozmente opuesta al recurso sistemático a los antibióticos. Enfermera desde antes de la primera guerra mundial, se distinguía por una actitud llena de buen sentido que le hacía decir que, salvo absoluta necesidad, los antibióticos eran malos para la salud.

No era que ella se opusiese al progreso. En casi 60 años pasados en la cabecera de la cama de los enfermos, fue testigo de muchos avances; mi abuelo, diabético, aprovecho largamente las mejoras de los tratamientos que aparecieron durante su vida. Pero, estoy segura, igual que muchos individuos ponderados, vería sin duda una prueba de extravagante arrogancia nuestros intentos de concebir una “especie de sustitución” robótica, cuando, evidentemente, tenemos ya dificultades en hacer funcionar cosas relativamente simples y tantas dificultades que nos generamos nosotros mismos.

Pienso ahora que ella tenía conciencia del orden de lo viviente, y de la necesidad de conformarse y respetarlo. Parejo a este respeto viene una necesaria humildad, humildad de la que, con nuestra presunción de inicios del siglo XXI, carecemos para nuestro gran peligro. Anclado en un respeto como este, el punto de vista del buen sentido tiene frecuentemente la razón, antes de ser científicamente demostrado. La evidente fragilidad y las insuficiencias de los sistemas creados por la mano del hombre deberían incitarnos a hacer una pausa; la fragilidad de los sistemas sobre los que yo he trabajado personalmente me recuerda efectivamente, este deber de humildad.

Deberíamos sacar enseñanzas de la fabricación de la primera bomba atómica y de la carrera de armamentos que desencadenó. No fuimos muy brillantes en aquella época, y los paralelismos con la situación actual son turbadores.

El esfuerzo que se realizó para la fabricación de la primera bomba atómica fue dirigido por un brillante físico llamado Julius Robert Oppenheimer. Aunque poco inclinado a la política por naturaleza, este hombre tomo, sin embargo, conciencia

Page 50: Trabajo de Nuevas Tecnologías-1

aguda de aquello que consideraba una gran amenaza: la que hacía pesar sobre la civilización occidental el Tercer Reich, Un peligro tanto más legítimo, en tanto que Hitler estaba, quizás, en camino de poseer un arsenal nuclear. Galvanizado por esta preocupación, segura de su espíritu brillante, de su pasión por la física y de su carisma de líder, Oppenheimer se trasladó a los Alamos y condujo un esfuerzo rápido y concluyente al frente de un ramillete de espíritus grandes, esfuerzo que, en poco tiempo, permitió inventar la bomba.

Lo que es sorprendente, es que este esfuerzo prosiguió tan naturalmente desde entonces como no lo había sido el impulso inicial. En una reunión efectuada poco después de la victoria de los aliados en Europa, en la que participaron ciertos físicos se trató que quizás hacía falta detener este esfuerzo, Oppenheimer se declaró en contra y a favor de proseguirlo. La razón invocada era un poco curiosa: no era el miedo a las pérdidas teribles que produciría la conquista de Japón, sinó el hecho de que esto daría a las Naciones Unidas, entonces a punto de ser creadas, una gran ventaja poseyendo armamento nuclear. Más plausiblemente la continuación del proyecto se explica por la aceleración dinámica del proceso: el primer ensayo atómico, Trinity, estaba al alcance de la mano.

Se sabe que, en la preparación de este primer ensayo, los físicos estaban en un impasse sobre un gran número de los peligros posibles. Su creencia inicial, sobre la base de un cálculo de Edward Teller, era que una explosión atómica no incendiaba la atmósfera. Una estimación revisada y corregida estimó esta amenaza de destrucción del planeta a una probabilidad de uno frente tres millones (Teller pretende que ulteriormente él llegó a descartar totalmente el riesgo de incendio de la atmósfera). Oppenheimer se inquieto lo suficientemente del impacto en Trinity como para poner a punto una posible evacuación de la parte sudeste de Nuevo México. Y, era seguro, que existía la amenaza de una carrera de armamentos nucleares.

Menos de un mes después de este primer ensayo concluyente, dos bombas destruyeron Hiroshima y Nagasaki. Algunos científicos sugirieron en vano, antes de lanzar efectivamente la bomba sobre ciudades japonesas, de limitarse a hacer una demostración. Prevaleció que, una vez la guerra estuviese acabada, las posibilidades de control del armamento se acrecentarían. El recuerdo de la tragedia de Pearl Harbour aun vivo en las memorias americanas, hizo muy difícil al presidente Truman ordenar una simple demostración de la potencia de las armas,

Page 51: Trabajo de Nuevas Tecnologías-1

sino más bien actuar como se hizo; el deseo de acabar la guerra y de ahorrar las vidas que una invasión del Japon habría fatalmente producido, era demasiado atrayente. No es menos cierto que el factor preponderante era probablemente más simple: como declaró ulteriormente el físico Freeman Dyson, “la razón por la que se lanzó es muy simple, nadie fue lo suficientemente valiente, o tan avisado, como para decir no”.

Es importante considerar el estado de choc en que se encontraban los físicos a la mañana siguiente del bombardeo de Hiroshima, el 6 de agosto de 1945. Sufrieron olas de emociones sucesivas: primero un sentimiento del deber cumplido ante el buen funcionamiento de la bomba, enseguida un sentimiento de horror ante el número de muertos, y finalmente un sentimiento agudo de nunca más, en ningún caso, otra bomba debía ser lanzada. No tardó mucho el nuevo lanzamiento sobre Nagasaki, solamente tres días después de Hiroshima.

En noviembre de 1945, tres meses después de los bombardeos nucleares Oppenheimer, resueltamente alineado con las posiciones del cuerpo científico se expresaba en estos términos: “nadie puede pretenderse científico si está convencido del carácter intrinsecamente benéfico del conocimiento del mundo para la humanidad, ni del poder que ello confiere. Servios sólo de este poder para divulgar estos conocimientos, y deben estar prestos a asumir plenamente sus consecuencias”.

Inmediatamente, junto con otros, Oppenheimer trabajó en el informe Acheson-Lilienthal, el cual, para retomar los términos de Richard Rhodes en su reciente obra “Visions of Technology”, “permitía impedir una carrera de armamentos atómicos clandestina, sin recurrir a un gobierno mundial armado”; su sugerencia consistía en que los estados-naciones renunciaran al armamento nuclear en provecho de una instancia supranacional.

Esta posición desembocó en el plan Baruch, que fue sometido a las Naciones Unidas en junio de 1946, pero que no fue nunca adoptado (quizás porqué, como sugiere Rhodes, Bernard Baruch había “insistido en cargar el plan con medidas coercitivas” llevándolo desde ese momento a un fracaso ineluctable, incluso sí “de todos modos, habría sido inevitablemente, o casi, rechazado por la Rusia estalinista”). Otras tentativas para promover etapas significativas de globalización

Page 52: Trabajo de Nuevas Tecnologías-1

de la potencia nuclear, intentando evitar una carrera de armamentos, encontraron la hostilidad conjunta tanto de los medios políticos como de los ciudadanos americanos, desconfiados de los Soviéticos. Fue así como muy deprisa, la posibilidad de evitar una carrera de armamentos se desvaneció.

Dos años más tarde, parece ser que Oppenheimer franqueó otra meta. En 1948 se expresaba en estos términos: “En el sentido más estricto de la palabra, que ninguna trivialidad, ningún humor ni ningún sobreentendido podrá lavar, los físicos han pecado. Y este pecado quedará como un peso sobre ellos para siempre.”

En 1949, los Soviéticos hicieron estallar una bomba atómica. A partir de 1955, los EUA procedieron a ensayos de bombas de hidrógeno lanzables desde aviones. La URSS hizo lo mismo. La carrera de armamentos fue iniciada.

Hace aproximadamente 20 años, en el documento titulado The Day After Trinity, Freeman Dyson ha resumido la actitud de ciertos científicos que nos condujeron al abismo nuclear:

“Yo, personalmente, he sentido esta fascinación de las armas atómicas. Para un investigador, el poder de atracción es irresistible. Sentir esta energía que abrasa las estrellas, allí, en la punta de tus dedos, liberarla y sentirse el dueño del mundo. Hacer milagros, catapultar al espació millones de toneladas de rocas. Era una cosa que daba una ilusión de poder sin límites, y, de un cierto modo, todos nuestros males destilan de él. Esta cosa, llamémosla arrogancia tecnológica, es más fuerte que nosotros, no percibímos el poder inaudito del espíritu, es irresistible.

Hoy en día, como entonces, los inventores de nuevas tecnologías y los depositarios de un futuro imaginado (colocados esta vez, en un contexto de competencia planetaria, por la perspectiva de ganancias financieras considerables, a pesar de peligros evidentes) estamos poco preocupados en examinar a que podría parecerse una tentativa de vida en un mundo que no es otra cosa que el resultado realista de aquello que estamos en trance de inventar y de imaginar.

Page 53: Trabajo de Nuevas Tecnologías-1

A partir de 1947, The Butlletin of Atomic Scientist hace figurar en su cubierta un reloj del “Juicio Final”. Este barómetro refleja las variaciones de la situación internacional, dando a lo largo de 50 años una estimación de la amenaza nuclear relativa que pesa sobre nosotros. Quince veces se han movido las agujas de este reloj. Marcando la medianoche menos nueve minutos, indican hoy en día la amenaza real del arsenal atómico. La reciente entrada de la India y del Pakistán en el club de las potencias nucleares ha supuesto un duro golpe al objetivo de la no-proliferación, como nos indica el movimiento de las agujas, las cuales, en 1998, se han aproximado a la hora fatídica.

En este momento, ¿cuál es el alcance preciso de la gravedad de este peligro que pesa sobre nosotros, no-solo en términos nucleares, sino teniendo en cuenta el conjunto de estas tecnologías? ¿Cuales son concretamente los riesgos de extinción que nos amenazan?

El filósofo John Lesli, que ha reflexionado sobre la cuestión, evalúa el riesgo mínimo de extinción de la especie humana en el 30%. Por su parte, Ray Kurzweil, estima que “nuestra capacidad de superar es superior a la mediana”, precisando más adelante que a el “siempre se le reprocha el ser optimista”. No solo tales estimaciones son poco comprometidas, sino que descartan los acontecimientos, múltiples y horribles, que preludiaran la extinción.

Frente a tales aserciones, ciertos personas dignas de crédito sugieren simplemente desplazarse lejos de la Tierra, y esto en el menor plazo. Colonizaremos la galaxia por medio de las sondas espaciales de Von Neumann, que, saltando de un sistemas estelar a otro, sé autorreproduciran. Superar esta etapa será un imperativo incontestable en los 5 millardos de años por venir (especialmente sí nuestro sistema ha de sufrir un impacto cataclísmico en la colisión de nuestra galaxia con la de Andrómeda, prevista para dentro de tres millardos de años); pero si aceptamos las palabras de Kurzweil y Moravec, esta migración podria ser necesaria hacia mediados de siglo.

¿Cuáles son las implicaciones morales en juego?. Si para sobrevivir la especia, nos hace falta abandonar la Tierra en un futuro tan próximo, quien asumirá la

Page 54: Trabajo de Nuevas Tecnologías-1

responsabilidad de todos los que quedaran en anden (de hecho la mayor parte)?E incluso cuando estemos desperdigados por las estrellas, ¿no es verosímil que traeremos nuestros problemas con nosotros o que nos daremos cuenta a posteriori de que nos han seguido? El destino de nuestra especie sobre la tierra parece inextricablemente conectado al de toda la galaxia.

Otra idea consiste en construir una serie de escudos preventivos contra las diversas tecnologías de riesgo. La iniciativa de defensa estratégica propuesta por la administración Reagan, pretendía ser un escudo de este tipo para detener la amenaza de un ataque nuclear de la Unión Soviética. Pero como observó Artur C. Clarke, en el secreto de las discusiones alrededor del proyecto “si bien es concebible, mediante costes formidables, construir sistemas de defensa locales que no dejen pasar más que algunos centenares de misiles balísticos, la idea propagada de un paraguas cubriendo los EUA en su totalidad era esencialmente una tontería. Luis Alvarez, quizás el más grande investigador de física experimental de este siglo, me remarcó que, los promotores de proyectos de este tipo, eran individuos extremadamente brillantes, pero desprovistos de buen sentido”.

“Cuando leo en mi bola de cristal, prosigue Arthur C. Clarke, no excluyo la posibilidad de que pueda ponerse a punto una defensa integral en un siglo o dos. Pera la tecnología que esto supondría, generaría “subproductos” tan temibles que, desde entonces, nadie perdería el tiempo en cosas tan primitivas como los misiles balísticos.

En Engines of Creation, Eric Drexler, proponía la construcción de un escudo nanotecnológico activo- una especie de sistema inmunitario para la biosfera- que nos protegería de los “replicadores” peligrosos de todo tipo, susceptibles de haberse escapado de los laboratorios, donde han de nacer eventualmente invenciones maravillosas. Pero el escudo que nos propone es por sí mismo extraordinariamente peligroso: efectivamente, nada podría impedir el desarrollo de problemas “autoinmunes” y de atacar de este modo la misma biosfera.

Dificultades parecidas van a la par con la construcción de escudos destinados a protegernos de la robótica y de la ingeniería genética. Estas tecnologías son demasiado potentes para que puedan predecirse todos los detalles, además,

Page 55: Trabajo de Nuevas Tecnologías-1

incluso con el despliegue de los escudos defensivos serán inevitables, los efectos colaterales serán al menos tan temibles como las tecnologías de las que nos han de proteger.

En consecuencia, todas estas posibilidades son, o bien poco deseable, o bien irrealizables o las dos cosas a la vez. La única alternativa realista, a mi parecer, es renunciar a ellas, restringir la investigación en los dominios tecnológicos que son demasiado peligrosos, poniendo límites a nuestra investigación de ciertos saberes.

Si, ya lo sé, el saber es una cosa benéfica, y lo es incluso tratándose de la investigación de nuevas verdades. Aristóteles abre la Metafísica con este máxima tan simple “Todos los hombres desean por naturaleza saber”. Después de largo tiempo, hemos reconocido como un valor fundamental de nuestra sociedad el libre acceso a la información, y convenido que los problemas surgen cuando se intenta limitar y poner frenos al desarrollo. Últimamente hemos llegado a poner el conocimiento científico en un pedestal.

Pero si, de ahora en adelante, a pesar de los precedentes históricos aportados, el libre acceso y el desarrollo ilimitado del saber hace claramente pesar sobre nosotros la amenaza de la extinción, entonces el buen sentido exige que estas convicciones sean revisadas de nuevo, aunque sean fundamentales y bien arraigadas.

Nietzsche, a fines del siglo XIX, no nos ha advertido solamente de que “Dios ha muerto”, sino también que “ (….) La fe en la ciencia, esta fe que es incontestable, no puede haber tenido su origen en semejante cálculo de utilidad, al contrario se ha formado a pesar de la demostración constante de inutilidad y de peligro que residen en la “voluntad de verdad”, en la “verdad a cualquier precio””. Es precisamente este peligro –las consecuencias de nuestra búsqueda de la verdad- que nos amenaza hoy en día con todo su peso. La verdad que busca la ciencia puede incontestablemente pasar por un substituto de Dios si es susceptible de conducirnos a la extinción.

Si, en tanto que especie, podemos ponernos de acuerdo sobre nuestras aspiraciones, sobre hacia donde vamos, y sobre la naturaleza de nuestras motivaciones, entonces construiremos un futuro significativamente menos

Page 56: Trabajo de Nuevas Tecnologías-1

peligroso. Entonces podremos comprender aquello que no solamente es posible, sino deseable de renunciar. De otro modo, imaginamos fácilmente una carrera de armamento girando alrededor de las tecnologías GNR, como la que se produjo en el siglo XX alrededor de las NBQ. El peligro mayor reside quizás aquí, en la medida en que, una vez lanzada la máquina es muy difícil pararla. Esta vez, al contrario de la época del proyecto Manhattan, no estamos en guerra, cara a un enemigo implacable que constituye una amenaza para nuestra civilización; esta vez, estamos callados por nuestros hábitos, nuestros deseos, nuestro sistema económico y por la carrera del saber.

Desearíamos, lo creo, que nuestro camino estuviese inspirado en valores colectivos, éticos y morales. Si en el curso de los últimos milenios, hemos adquirido una sabiduría colectiva más profunda, entonces iniciar un diálogo con este fin será más fácil, y este poder formidable a punto de desatarse estará lejos de ser tan preocupante.

Se podrá pensar que el instinto de conservación nos conducirá a un diálogo como este. Ahora bien, si en tanto que individuo, manifestamos claramente este deseo, nuestro comportamiento colectivo en tanto que especie, por el contrario, parece jugar en contra nuestra. Afrontando la amenaza nuclear, nos hemos comportado de modo deshonesto, tanto respecto a nosotros mismos, como hacia los otros, multiplicando los riesgos. Razones políticas, elección deliberada de no mirar a largo plazo, o comportamiento mudo debido a miedos irracionales procedentes de las graves amenazas que pesan sobre nosotros, no lo sé, pero esto no presagia nada bueno.

Que las nuevas cajas de Pandora genética, nanotecnológica y robótica estén entreabiertas, a nadie parece inquietar. Nadie cierra las tapas sobre estas ideas; contrariamente al uranio y al plutonio, una idea no necesita ser extraída, ni enriquecida y se puede duplicar libremente. Una vez lanzada, no se detiene. Churchill, hizo célebre un cumplido ambiguo “los americanos y sus dirigentes, acaban siempre por actuar honorablemente, una vez que han examinado bien cada una de las otras opciones”. Pero en este caso preciso, es necesario intervenir antes, en la medida que actuar honorablemente como último recurso pueda condenarnos.

Page 57: Trabajo de Nuevas Tecnologías-1

Thoreau dijo “no somos nosotros los que tomamos el tren, es el tren que nos toma a nosotros”. Y esta es la apuesta actualmente. De hecho, la verdadera cuestión es saber quien dominará al otro, y si sobreviviremos a nuestras tecnologías.

Estamos lanzados en este nuevo siglo sin mapa, sin guía, sin frenos. ¿Hemos llegado ya demasiado lejos en este camino para corregir la trayectoria? No lo creo; de momento no se ha realizado ningún esfuerzo en este sentido, y nuestras últimas posibilidades de retomar el control, es decir el punto de no retorno, se aproxima rápidamente. Disponemos ya de nuestros primeros animales domésticos de síntesis, y ciertas técnicas de ingeniería genética están ya disponibles en el mercado; en cuanto a las técnicas a escala “nano” avanzan rápidamente. Si su desarrollo supone un cierto número de etapas, su última etapa no ha de ser forzosamente algo tan enorme como el proyecto Manhatann o el ensayo Trinity. El descubrimiento capital de la capacidad de autoreplicación incontrolada en el campo de la robótica, la ingeniería genética y la nanotecnología puede llegar brutalmente, renovando el efecto sorpresa del día en que apareció la noticia de la clonación de un mamífero.

Los esfuerzos desplegados para regular la cuestión de las armas de destrucción masiva en el curso del último siglo, proporcionan un ejemplo muy claro de renuncia que merece la atención: el abandono unilateral e incondicional por parte de los Estados Unidos del desarrollo de las armas biológicas. Este descuelgue se relaciona con dos aspectos, por una parte es necesario un esfuerzo considerable para poner apunto estas armas horrorosas, por otra parte pueden ser fácilmente duplicadas y caer en manos de países belicosos o de grupos terroristas.

Todo esto deja claro que desarrollar estas armas hace aparecer nuevas amenazas, y que renunciar a ellas acrecienta nuestra seguridad. Esta decisión solemne de prohibir las armas bacteriológicas y químicas a sido consignado en la Convención de Armas bacteriológicas (BWC) en 1972, y en la Convención sobre Armas Químicas(QWC) de 1993.

En cuanto a la amenaza persistente y bastante considerable de las armas atómicas, bajo el peso de las cuales llevamos viviendo 50 años, tenemos el reciente rechazo del senado americano de tratado de prohibición global de los ensayos nucleares, desengancharse de las armas atómicas no será una tarea

Page 58: Trabajo de Nuevas Tecnologías-1

políticamente fácil. Pero el fin de la guerra fría nos ofrece una posibilidad excepcional de prevenir una carrera de armamento multipolar. En la estela del abandono de las armas químicas y biológicas, llegar a abolir las armas atómicas puede incitarnos a renunciar a las tecnologías peligrosas (de hecho comenzar desembarazándose de cien armas atómicas diseminadas por todo el mundo –aproximadamente el potencial de destrucción de la segunda guerra mundial- bastaría para eliminar esta amenaza de extinción).

Verificar la realidad del desarme será un problema delicado pero no insoluble. Por ejemplo un importante trabajo similar ha sido ya cumplido en el contexto del BWC y otros tratados. Nuestra tarea esencial será aplicar esto a tecnologías que, por naturaleza, son resueltamente más comerciales que militares. Esto hace necesaria una buena cantidad de transparencia, en la medida que la dificultad de la verificación es directamente proporcional a la dificultad de distinguir una actividad clandestina de una actividad legítima.

Pienso honestamente que en 1945, la situación era más simple que la que enfrentamos hoy en día: era relativamente sencillo trazar la frontera entre tecnología nuclear de uso comercial y militar. Por tanto el control estaba facilitado por la naturaleza misma de los ensayos nucleares y la facilidad con que se puede medir el grado de radiactividad. La investigación de aplicaciones militares puede ser llevada en laboratorios tales como “los Alamos”, y los resultados mantenidos en secreto el mayor tiempo posible.

Las tecnologías GNR no se dividen tan claramente en dos familias distintas, la militar y la comercial; teniendo en cuenta su potencial mercantil, es difícil imaginarlas acantonadas en laboratorios del estado. En el contexto de su desarrollo comercial a gran escala, controlar el grado efectivo de uso-no-militar exigirá la instauración de un régimen de verificación similar al de las armas bacteriológicas, pero a una escala sin precedentes hasta hoy. Ineluctablemente se cruzará la línea: por un lado la voluntad de proteger la vida privada y algunos datos confidenciales, y por otro, la necesidad de que estos datos queden accesibles en interés de todos. Ante este ataque a la vida privada y a nuestro margen de maniobra, nos encontraremos sin duda con grandes resistencias.

El control de la detención efectiva de algunas tecnologías GNR deberá intervenir en lugares tanto virtuales como psíquicos. En un mundo de datos confidenciales,

Page 59: Trabajo de Nuevas Tecnologías-1

la apuesta consistirá en volver aceptable la necesaria transparencia, verosímilmente produciendo formas renovadas de protección a la propiedad intelectual.

Un respeto tal exigirá de los científicos e ingenieros la adopción de un código de conducta ética rigurosa, similar al juramento hipocrático, y que tengan el coraje de hacer pública todo fallo, tan a menudo como sea necesario, incluso cuando haya que pagar el precio a nivel personal. Esto respondería –50 años después de Hiroshima- a la llamada lanzada por Hans Bethe, laureado Premio Nobel, uno de los más venerables miembros del proyecto Manhattan, aun vivo, llamando a los científicos a “cesar y desistir de toda actividad de concepción, desarrollo, mejora y fabricación de armas nucleares y de otras armas de potencial destructor masivo”. En el siglo XXI esto supondrá la vigilancia y la responsabilidad personal de parte de aquellos que puedan trabajar tanto sobre tecnologías NBQ como GNR, para prevenir el despliegue de armas de ingeniería de destrucción masiva accesibles por su solo conocimiento.

Thoreau dijo igualmente que no seremos “ricos en la proporción de número de cosas a las cuales podamos permitirnos renunciar”. Todos aspiramos a la felicidad, ¿pero es razonable recurrir a un grabe riesgo de destrucción total para acumular aun más saber y aun más bienes? El buen sentido señala que hay un límite para nuestros deseos materiales. Ciertos saberes son ciertamente peligrosos y es necesario renunciar a ellos.

No deberíamos acariciar sueños de casi inmortalidad sin, antes, estimar los costes, y tomar en cuenta los riesgos crecientes de extinción. La inmortalidad constituye quizás la utopía original; pero no es ciertamente la única.

Recientemente he tenido el privilegio de conocer al distinguido escritor y erudito Jacques Attali, su libro Lignes d’horizont (Millenium en su traducción inglesa) me ha inspirado la aproximación Java y Jini de los efectos perniciosos de la tecnología informática en los próximos años. En su última obra “Fraternites”, Attali explica como con el paso del tiempo nuestras utopías se han transformado:

Page 60: Trabajo de Nuevas Tecnologías-1

“En el alba de las sociedades, los hombres, sabían que la perfección solo pertenecía a los dioses, no viendo su paso por la tierra más que como un laberinto de dolor al final del cual se encontraba una puerta abierta, por medio de la muerte, hacia los dioses y la eternidad. Con los hebreos y después con los griegos, algunos hombres osaron liberarse de las exigencias teológicas y soñar en una Ciudad ideal, donde se expandía la libertad. Otros, observando la evolución de la sociedad mercantil, comprendieron que la libertad de unos entrañaba la alienación de los otros, y buscaron la Igualdad”.

Jacques Attali me ha permitido comprender como estos tres objetivos utópicos existen en tensión en nuestra sociedad actual. Prosigue con la exposición de una cuarta utopía, la fraternidad, de la que es pedestal el altruismo. Por si misma la fraternidad liga la felicidad individual a la felicidad de los otros, ofreciendo una promesa de crecimiento autónomo.

Esto cristalizó en mi el problema que tenía con el sueño de Kurzweil. Una aproximación tecnológica a la eternidad –la cuasi inmortalidad que nos promete la robótica- no es forzosamente la utopía más deseable. Al contrario, acariciar este género de sueños comporta peligros evidentes. Quizás debemos reconsiderar nuestras elecciones de utopías.

¿Hacia donde girarnos para encontrar una nueva base ética susceptible de guiarnos? He encontrado en las ideas que expone el dalai-lama en Sagesse Ancienne, Monde Moderne, muy útiles a este respecto. Como esta bien admitido pero poco puesto en práctica, el dalai-lama valora que lo más importante para nosotros es conducir nuestras vidas en el amor y la compasión por los otros, y que nuestras sociedades deben desarrollar una noción más fuerte de responsabilidad universal y de interdependencia; propone un principio práctico de conducta ética destinada tanto al individuo como a las sociedades, la cual coincide con la utopía de Attali.

Además, señala el dalai-lama, nos hace falta comprender que es lo que hace feliz al hombre, y rendirse a la evidencia de que la clave no es ni el progreso material, ni la búsqueda del poder que confiere el saber. Claramente, hay límites a aquello que la ciencia y la investigación científica, solas, pueden conseguir.

Page 61: Trabajo de Nuevas Tecnologías-1

Nuestra noción occidental de felicidad parece venirnos de los griegos, que daban como definición “vivir con todas las fuerzas, guiado por los criterios de excelencia, una vida que permita desplegarse”.

Ciertamente necesitamos encontrar motivaciones cargadas de sentido y continuar explorando nuevas vías si, como se adivina, queremos encontrar la felicidad. Hace falta, creo yo, encontrar nuevas exultaciones a nuestras fuerzas creativas y salir de la cultura del crecimiento perpetuo. Si, durante unos siglos, este crecimiento nos ha colmado de bienestar, no nos ha aportado la felicidad perfecta. Ha llegado la hora de comprender: un crecimiento ilimitado y salvaje de la ciencia y la tecnología viene acompañado fatalmente de peligros considerables.

Ha pasado más de un año después de mi primer encuentro con Ray Kurzweil y John Searle. He encontrado alrededor mío razones de esperanza en las voces que se elevan a favor del principio de precaución y de desenganche, y en aquellos individuos que, como yo, se inquietan por la situación difícil en la que nos encontramos. Experimento también un sentimiento de responsabilidad personal acrecentado –no por el trabajo realizado hasta hoy, sino por aquel que puede quedarme por cumplir.

Sin embargo, un gran número de aquellos que tienen conocimiento de los peligros parecen quedarse extrañamente quietos. Cuando se les presiona contestan a veces “esto no es una novedad” –como si se pudiesen satisfacer con la conciencia del peligro latente. “Las universidades están llenas de bioéticos que examinan estos trucos durante toda la jornada”, me dicen. O bien “todo ha sido ya escrito y dicho por expertos”. O finalmente “estos temores y estos razonamientos, ya están muy vistos”.

Ignoro como estas personas disimulan sus miedos. A título de arquitecto de sistemas complejos, bajo a esta arena con ojos generalizas. ¿Por tanto, debo alarmarme? Tengo conciencia de que se ha escrito, dicho y enseñado mucho en este tema, ¿Pero ha llegado a las personas? ¿Significa que podemos ignorar los peligros que llaman a nuestra puerta?

Page 62: Trabajo de Nuevas Tecnologías-1

No es suficiente saberlo, es necesario actuar. Saberlo se ha convertido en un arma que volvemos contra nosotros. ¿Podemos dudar todavía?

Las experiencias de los investigadores nucleares enseñan claramente que es el momento de asumir plenamente la responsabilidad de nuestros actos, que las cosas pueden acelerarse, que un proceso puede escaparse a nuestra dirección y volverse autónomo. Puede que, como les paso a ellos, sin siquiera tener el tiempo de apercibirnos desencadenemos problemas insuperables. Es necesario actuar ahora si no queremos dejarnos sorprender y chocar, como ellos, por las consecuencias de nuestras invenciones.

Sin tregua he trabajado en la mejora de mis programas. Los programas son herramientas, en consecuencia, siendo un fabricante de herramientas, debo luchar contra ciertos usos de las herramientas que fabrico. Mi convicción ha sido siempre que, teniendo en cuenta su uso múltiple, produciendo programas más fiables contribuiría a construir un mundo mejor y más seguro. Si llego a la convicción inversa, entonces, me veré en la obligación moral de dar un frenazo a mi actividad. Hoy día, no excluyo esta perspectiva.

Todo esto no me encoleriza, solamente me deja un poco melancólico. De ahora en adelante el progreso tendrá para mi un sabor agridulce.

¿Conocéis la maravillosa penúltima escena de Manhattan donde se ve a Woody Allen, echado sobre su diván, hablando al micro de su magnetófono? Esta en trance de redactar una novela que tiene por tema estas personas que se inventan problemas inútiles, neuróticos, porque esto les evita afrontar problemas todavía más insolubles y terribles concernientes al universo.

Llega el momento de hacer la pregunta “¿Qué es lo que hace que la vida valga la pena de ser vivida?” Y de pasar revista a las cosas que, en algunos casos, ayudan a ello: Groucho Marx, Willie Mays, el segundo movimiento de la sinfonía de Jupiter, la Potatoe Head Blues de Louis Armstrong, el cine sueco, la Educación Setimental de Flaubert, Marlon Brando, Frank Sinatra, las manzanas y peras de

Page 63: Trabajo de Nuevas Tecnologías-1

Cézanne, los cangrejos de chez Sam Wo, y, para acabar, lo principal: la cara de su amiguita Tracy.

Cada uno de nosotros ama ciertas cosas por encima de todo, y esta disposición hacia los otros no es otra cosa que el substrato de nuestra humanidad. En último término, es en el hecho de esta innegable aptitud en lo que confío, estoy seguro, vamos a superar los desafíos temibles que nos lanza el porvenir.

Mi deseo inmediato es participar en una discusión mucho más extensa tratando las cuestiones señaladas aquí, con individuos de horizontes diversos, y en una disposición de espíritu que escape tanto al temor como a la idolatría de la tecnología.

A guisa de preliminares, he planteado por dos veces un gran número de estas cuestiones en los acontecimientos patrocinados por el Aspen Institute y propuesto a la American Academy of Arts and Sciences integrarlas en sus actividades de la conferencia de Pugwash. Estas conferencias se consagran desde 1967 al control de los armamentos, particularmente de tipo nuclear, y formulan recomendaciones realistas.

Se les puede reprochar que se pusieron en marcha cuando el genio nuclear se había escapado de la botella, digamos que 15 años más tarde. De la misma manera, ya tardamos en iniciar la reflexión de fondo sobre los peligros que conllevan las tecnologías de siglo XXI, y, prioritariamente la prevención de una ingeniería de la destrucción masiva accesible por su solo conocimiento. Aplazar para más adelante el inicio sería inaceptable.

Continúo pues con mi exploración, quedan un gran número de cosas para aprender. ¿Estamos llamados a tener éxito o a fallar, a sobrevivir o a caer bajo el golpe de estas tecnologías? Esto todavía no está escrito.

Page 64: Trabajo de Nuevas Tecnologías-1

Esto me ha llevado a una hora avanzada, son las 6 de la mañana, Me esfuerzo en imaginar respuestas más adaptadas, y de “penetrar el secreto” de la piedra para liberarlo.

El nuevo milenio

Enviado por fcuenca

 Indice1. Introducción2. El progreso técnico y científico3. La revolución de las comunicaciones4. Un Mundo Global5. Los problemas del comienzo del nuevo milenio1. IntroducciónMilenio, Nuevo, paso del segundo al tercer milenio de la era cristiana que ha originado reflexiones y efectos en la psicología colectiva en muchos países. No obstante, la llegada de un "nuevo milenio" no es más que una convención cronológica propia del calendario de la cultura occidental. Tiene que ver con la llamada era cristiana, que comienza a contar desde el año en el que se supone que nació Jesucristo. Otras culturas, como el islam, establecen un año diferente para el comienzo de su era y, por lo tanto, según su calendario no están a las puertas de un nuevo milenio.El comienzo del siglo XXI, y por ende, del tercer milenio, tendrá lugar en un mundo que ya vive una acelerada transformación en todos los ámbitos. Los cambios afectan a todo el orbe y señalan a un futuro cada vez más próspero e interconectado, pero también amenazado por importantes retos y graves problemas. Los aspectos más destacados son la mundialización de las relaciones entre los pueblos, los progresos en la técnica y la ciencia y la revolución de las comunicaciones. Junto a ello encontramos un mundo con profundas desigualdades, con conflictos endémicos y con un crecimiento industrial que puede poner en peligro el medio ambiente si no se hace especial hincapié en la aplicación de las teorías del desarrollo sostenible.2. El progreso técnico y científico  El progreso de la ciencia y de la tecnología ha mantenido, desde la segunda mitad del siglo XX, un ritmo espectacular. Los resultados de la investigación científica y tecnológica se han convertido en elementos normales en la vida diaria, hasta el punto de que la mitad de los productos utilizados habitualmente por la humanidad eran desconocidos al finalizar la II Guerra Mundial, en 1945. Este proceso, que algunos especialistas han calificado de revolución científica y tecnológica, no ha hecho más que empezar y, si no se producen novedades importantes, seguirá siendo una de las características de la civilización del nuevo milenio. Muchos son los campos en los que se pueden centrar los avances que se prevén: las ciencias de los nuevos materiales, la robótica o la tecnología de los alimentos serían tal vez algunos de los principales. Pero hay tres áreas de la investigación que deben ser destacadas como líneas de progreso de un futuro imparable: la electrónica, la astronáutica y la ingeniería genética.En la actualidad, los ordenadores son protagonistas de una verdadera "revolución informática" que afecta decisivamente a una sociedad cada vez más digitalizada. Ello permite, y permitirá cada día más, una auténtica transformación de todos los aspectos de la vida cotidiana y de la economía, tanto de la productiva, como de la de los servicios.La investigación aeroespacial está convirtiendo en realidad la cada vez más cercana conquista del espacio. Es de prever que se establezcan estaciones habitadas por humanos de manera permanente en el espacio. Ya se anuncian viajes turísticos al espacio exterior y parece que, en menos de un siglo, el viajar a la Luna estará al alcance de muchos ciudadanos.En el campo de las investigaciones biológicas, el descubrimiento del ácido desoxirribonucleico (ADN), a mediados del siglo XX, y el posterior desarrollo de la llamada ingeniería genética permitirá, en los próximos lustros, avances espectaculares. Muchas de las enfermedades podrán alcanzar una explicación en la estructura genética de los seres humanos y ello facilitará su curación; será posible la creación y modificación de nuevos organismos vivos realizando una adecuada alteración genética, lo cual supondrá una auténtica revolución en la agricultura y la ganadería. La nueva genética comporta, sin duda, indudables ventajas, pero se encuentra sometida a límites de responsabilidad ética en su desarrollo.3. La revolución de las comunicaciones  El extraordinario progreso en las técnicas de comunicación e información puede ser comparado al nacimiento de la escritura o de la imprenta. Como en estos dos acontecimientos, la revolución de las comunicaciones lleva a la formación de una particular cultura que tiene, en esta ocasión, un carácter universal que se convertirá en un signo del inicio del nuevo milenio.La revolución de las comunicaciones hace posible presenciar, en tiempo real, guerras, acontecimientos deportivos y culturales, y todo tipo de eventos. Millones de personas, que viven en lugares muy alejados entre sí, pueden escuchar una canción y una conferencia al mismo tiempo. El acceso a la información hace que, a través de Internet u otras redes informáticas, sea posible

Page 65: Trabajo de Nuevas Tecnologías-1

obtener rápidamente más información de cualquier ámbito de la ciencia o la cultura de la que, hasta hace no muchos años, hubiese sido imposible imaginar. El perfeccionamiento de estas redes planetarias, fruto de la denominada revolución de la información, hará que en pocos años se pueda disponer en cada domicilio de acceso a las principales filmotecas, bibliotecas, hemerotecas e incluso puntos de venta.El progreso de las comunicaciones y el auge de la sociedad de la información ha provocado una carrera tecnológica sin precedentes, motivada por el deseo de dominar el mundo de la comunicación. El ganador de esta carrera está siendo Estados Unidos, pero todos los países desarrollados siguen invirtiendo enormes sumas en este campo.4. Un Mundo Global  En los últimos años del siglo XX ha tenido lugar una serie de fenómenos de carácter "global" que habrían sido impensables unos decenios antes. Un conjunto de comportamientos, gustos y valores son compartidos en la actualidad por millones de personas que pertenecen a culturas muy diferentes. Los medios de comunicación han reducido las distancias físicas y han hecho que tiempos diferentes sean vividos al unísono ante las pantallas de televisión o ante un determinado producto de consumo.La globalización es un fenómeno nuevo y aún resulta difícil calcular sus consecuencias para el siglo XXI. Sin embargo, hay tres campos en los que su influencia se acentúa notablemente: la economía, la política y la cultura.La globalización tiene su ámbito más preciso en el mundo de la economía, sobre todo en los niveles comercial, financiero y organizativo, donde funciona ya de un modo eficaz. La globalización económica supone una absoluta libertad de intercambio. Con ella, la producción de mercancías sólo se encuentra limitada por ventajas físicas o geográficas; las empresas se encuentran organizadas de un modo muy flexible para que tengan mejor acceso a los mercados globales; al tiempo que el mercado financiero se halla descentralizado, tiene un carácter instantáneo y escapa a la influencia de los gobiernos.En el ámbito de la política, la globalización afecta a la estructura de los gobiernos y de las decisiones políticas. En un mundo global, la soberanía de los estados parece debilitarse, se crean múltiples centros de poder y las organizaciones internacionales ven incrementada de forma notable su importancia.La cultura se ve afectada de múltiples formas por el proceso de globalización. La creación de grandes símbolos tiene un carácter mundial. Hay una tendencia a la diversidad cultural y al triunfo de un cosmopolitismo que va más allá de los propios estados. La información no tiene un único origen local y se ve difunde de un modo muy veloz a todo el mundo. El ocio y el turismo crecen hasta niveles insospechados. Los instrumentos de universalización y conexión cultural, como Internet (uno de los más importantes fenómenos del final del siglo XX), se multiplican y obligan a idear nuevas formas de aprendizaje.La globalización es un fenómeno nuevo, que afecta a la estructura de las sociedades, los gobiernos y las formaciones culturales: se encuentra llena de interesantes cuestiones y de respuestas todavía inciertas. El nuevo milenio irá configurando el nuevo mundo globalizado que ya percibimos.5. Los problemas del comienzo del nuevo milenio  No obstante, ante este nuevo mundo tecnológicamente desarrollado y con más capacidad de producción por habitante de la que haya existido en cualquier otro momento histórico, la humanidad ha de enfrentarse a graves problemas, los más destacados de los cuales son los que siguen.La existencia de un mundo dual: por un lado, la diferencia entre países ricos y pobres, por otro, la desigualdad de riqueza en el seno de las sociedades de los países ricos. Más de las tres cuartas partes de la humanidad vive en países que no han alcanzado un grado de desarrollo suficiente y la mayoría de sus habitantes apenas puede sobrevivir. Estos países se encuentran en Sudamérica, Asia y África. Entre ellos hay grandes diferencias: algunos se encuentran en vías de desarrollo, pero otros viven sumidos en la pobreza. El hambre, la enfermedad y el analfabetismo son graves carencias sociales que afectan a buena parte de los habitantes de estos países. En el mundo inmediatamente anterior al comienzo del tercer milenio, más de 800 millones de personas pasan hambre y 500 millones se alimentan de modo insuficiente. Las enfermedades degenerativas, provocadas por la malnutrición, siguen haciendo estragos. En los países más pobres de la Tierra, el analfabetismo alcanza, como media, a un 60% de la población. Ello supone que la mayoría de los seres humanos se ve privada de instrucción.Las sociedades de los países ricos ven surgir en su seno un conjunto de graves problemas entre los que destaca la marginación social. En las sociedades desarrolladas la pobreza afecta fundamentalmente a los parados de larga duración, que ya no cobran el seguro de desempleo. Junto a éstos, los inmigrantes (sobre todo los procedentes de los países del Tercer Mundo) y las mujeres son los principales protagonistas de la pobreza en el cambio de siglo. Hay una forma más trágica de pobreza, la de los más pobres de entre los pobres: las personas "sin techo", los marginados por la droga y muchos de los inmigrantes extranjeros; las ciudades del mundo industrial ven aumentar sin cesar el número de estas personas.Paradójicamente, un elevado número de emigrantes se agolpa en las fronteras de los países ricos, en busca de mejores condiciones de vida. El aumento de la intolerancia y del racismo en los países desarrollados convierte a muchos extranjeros que consiguen entrar procedentes de países pobres en grupos marginados y, en ocasiones, perseguidos.El derrumbamiento desde 1991 de la Unión de Repúblicas Socialistas Soviéticas (URSS), así como el de los gobiernos de los países de la órbita de ésta, ha supuesto un nuevo reto para el siglo XXI. Los antiguos países comunistas han visto caer sus sistemas económicos y se enfrentan a difíciles transiciones hacia formas distintas de economía y de gestión política. Esta transformación comporta graves problemas sociales, que sumen en la miseria a gran parte de sus habitantes.El grave problema del consumo y el tráfico de drogas está alcanzado cotas inimaginables entre los sectores jóvenes de muchos países desarrollados. Junto a ello existe el temor a enfermedades nuevas, como es el caso del síndrome de inmunodeficiencia adquirida (SIDA), que afecta de forma brutal a los países pobres, pero no sólo a éstos. Estas nuevas epidemias vienen a sumarse a otras tradicionales, como la malaria, que produce todavía casi tres millones de muertos cada año en las poblaciones africanas, asiáticas y sudamericanas.El peligro de un desarrollo industrial desenfrenado, que ya ha provocado graves problemas ecológicos, sigue siendo en este nuevo siglo un riesgo que amenaza con una degradación irreparable del medio ambiente.Los conflictos bélicos son todavía una experiencia habitual en determinados lugares del mundo. Las guerras entre países o las que pueden considerarse guerras civiles ocasionan el sufrimiento y la muerte de muchos miles de personas. Entre las zonas de

Page 66: Trabajo de Nuevas Tecnologías-1

permanente conflicto se encuentran Oriente Próximo, la península de los Balcanes y muchos países africanos.Por último, aunque la democracia ha dado en ser considerada como el "menos malo" de los sistemas políticos, los países que disfrutan de ella se encuentran lejos de colmar las aspiraciones de sus ciudadanos. Las críticas que este hecho suscita, realizadas en gran medida por destacados representantes de la política y por muchos de los militantes en los nuevos movimientos sociales, se basan en el deseo de redefinir los principiosde la participación política, de la gestión de los asuntos del Estado y de la construcción de sociedades más justas.No es de extrañar que el comienzo del nuevo milenio genere en ocasiones un juicio pesimista sobre el futuro. Sin embargo, cabe señalar la presencia de algunos motivos para la esperanza: el desarrollo tecnológico ha permitido la mejora de las condiciones de vida de millones de hombres y mujeres, al mismo tiempo que los derechos democráticos se están extendiendo y permitiendo mayores cotas de igualdad y libertad en muchas naciones.Pero, sobre todo ello, cabe destacar el progresivo aumento de la solidaridad humanitaria que surge de forma espontánea y que se hace necesaria ante la presencia de los graves problemas que afectan al mundo contemporáneo. Será la combinación entre una verdadera actitud solidaria e igualitaria y la constante crítica ante todo exceso de poder y ante la injusticia la que permita construir un mejor siglo XXI. Y en esa tarea se encuentran empeñados, afortunadamente, millones de hombres y mujeres, muchos de ellos activistas de las llamadas organizaciones no gubernamentales.  

Leer más: http://www.monografias.com/trabajos10/numi/numi.shtml#ixzz31Llf0xKy

Historia de la nanotecnología

Este artículo está siendo desarrollado y forma parte de un proyecto educativo.Es posible que a causa de ello haya lagunas de contenido o deficiencias de formato. Si quieres puedes ayudar y editar, pero por favor antes de realizar correcciones mayores contacta a los redactores en sus páginas de discusión, o en la página de discusión del artículo para poder coordinar la redacción.

La historia de la nanotecnología trata del desarrollo y avances a lo largo del tiempo de los conceptos y trabajos experimentales que caen en la amplia categoría de nanotecnología. A su vez incluye la discusión de su impacto en distintos ámbitos (sociales, económicos, educativos y tecnológicos) derivados de su desarrollo. Aunque la nanotecnología es relativamente reciente como tema de investigación científica, el desarrollo de varios conceptos centrales ha ocurrido a través de un periodo de tiempo largo. El surgimiento de la nanotecnología en la década de 1980 fue causado por la convergencia de varios avances e invenciones experimentales tales como el microscopio de efecto túnel en 1981 y el descubrimiento del fullereno en 1985, así como la formulación y popularización del marco conceptual sobre las metas de la nanotecnología que iniciaron con la publicación en 1986 del libro Motores de la Creación: La era de la Nanotecnología El campo de la nanotecnología es de creciente interés público y ha sido controversial, en particular a inicios del siglo XXI, cuando debates entre prominentes personajes del área tuvieron lugar, en particular sobre sus implicaciones potenciales, así como la factibilidad de las predicciones hechas por los partidarios de la nanotecnología molecular. En la primera década del siglo XXI, hemos presenciado los inicios de la comercialización de la nanotecnología, aunque en la mayoría de los casos limitada a aplicaciones de gran volumen más que en las aplicaciones disruptivas y revolucionarias que se han propuesto para el campo.

Índice

  [ocultar] 

1   Orígenes Conceptuales

o 1.1   Richard Feynman

Page 67: Trabajo de Nuevas Tecnologías-1

o 1.2   K. Eric Drexler

o 1.3   Norio Taniguchi

2   Avances experimentales

o 2.1   Invención del Microscopio de Efecto Túnel

o 2.2   Avances en ciencias interfaciales y de coloides

o 2.3   Descubrimiento de los fullerenos

3   Contribuciones regionales al desarrollo de la Nanotecnología

o 3.1   Estados Unidos

3.1.1   Instituciones Educativas y Centros de Investigación

3.1.2   Investigadores Destacados

3.1.3   Iniciativa Nacional en Nanotecnología

o 3.2   México

3.2.1   Desarrollo histórico

3.2.2   Investigadores Destacados

3.2.3   Instituciones Educativas y Centros de Investigación

4   Interés público creciente y controversias

o 4.1   "Por qué el futuro no nos necesita"

o 4.2   Debate Drexler/Smalley

o 4.3   Reporte de la Royal Society sobre las implicaciones de la nanotecnología

5   Aplicaciones comerciales iniciales

6   Referencias

7   Ligas Externas

Page 68: Trabajo de Nuevas Tecnologías-1

Orígenes Conceptuales[editar]

Richard Feynman[editar]

El físico estadounidense Richard Feynman impartió el 29 de diciembre de 1959 la conferencia titulada, Hay mucho espacio en el fondo en un congreso de la Sociedad Americana de Física en el Instituto de Tecnología de California (Caltech; este discurso es con frecuencia señalado como fuente de inspiración para el campo de la nanotecnología. Feynman describió un proceso por medio del cual podríamos desarrollar la habilidad para manipular átomos y moléculas individuales, empleando herramientas de precisión para construir y operar a su vez otro conjunto de herramientas de menores proporciones, y así sucesivamente hasta alcanzar la nanoescala. En el proceso de hacerlo, Feynman observe que surgirían problemas asociados con el escalamiento de fuerzas físicas: la gravedad se haría menos importante y significativa, mientras que fuerzas de tension superficial o fuerzas de Van der Waals adquirirían gran importancia. 1

Richard Feynman dio una conferencia en 1959 que muchos años después inspiraría el desarrollo de la nanotecnología.

Después de la muerte de Feynman, académicos estudiando el desarrollo histórico de la nanotecnología concluyeron que su papel catalizador en la investigación en nanotecnología fue mas bien limitado, basado en comentarios de muchas de las personas activas en el naciente campo entre 1980 y 1990.Chris Toumey, un antropologo cultural de la Universidad de Carolina del Sur, encontró que la version impresa de la conferencia de Feynman tuvo poca influencia en los siguientes veinte años después de su publicación, medido a través del número de citas en la literatura científica y que no tuvo influencia mayor en las décadas posteriores a la invención del microscopio de efecto tunel, en 1981. Por consecuencia, el interés en la conferencia Hay mucho espacio en el fondo en la literatura científica se han incrementado significativamente a partir de inicios de la década de 1990. Esto puede ser una consecuencia de que el término “nanotecnología” se fue popularizando poco antes de esta fecha debido al uso del mismo en el libro de 1986 de K. Eric Drexler, Motores de la Creación, el cual incorporó el concepto de Feynman de mil millones de pequeñas fábricas e incorporó la idea que podrían construir más copias de si mismas via un control automatizado, sin la

Page 69: Trabajo de Nuevas Tecnologías-1

participación de un operador humano; en la portada de un artículo titulado “Nanotecnología”, 2 3 publicado poco después ese año en la revista de orientación científica de amplia circulación, OMNI. El análisis de Toumey incluyó comentarios de distinguidos miembros de la comunidad científica en nanotecnología que dijeron queHay mucho espacio en el fondo no influenció sus trabajos iniciales, y que de hecho la mayoría de ellos ni siquiera lo habían leído a la fecha. 45

Estos y otros desarrollos dieron origen al redescubrimiento histórico del discurso de Feynman “Mucho espacio en el fondo”, que dio en diciembre de 1959, a lo que además se sumó el carisma y genialidad de Richard Feynman. La importancia de Feynman como un ganador del Premio Nobel y como una figura icónica de la ciencia del siglo XX seguramente ayudaron a los defensores de la nanotecnología y proveyó de un invaluable vínculo intelectual con el pasado.6

K. Eric Drexler[editar]

K. Eric Drexler desarrolló y popularizó el concepto de nanotecnología e inició el campo de la nanotecnología molecular.

En 1980, Drexler descubrió el provocador discurso de Feynman de 1959 Hay mucho espacio en el fondo mientras preparaba su primer artículo científico en el tema “Molecular Engineering: An approach to the development of general capabilities for molecular manipulation”, publicado en la revistaProceedings of the National Academy of Sciences in 1981.[1] El término "nanotecnología" (el cuál es idéntico al nano-tecnología) de Taniguchi, fue aplicado de manera independiente por Drexler en su libro de 1986 Motores de la Creación: la próxima Era de la Nanotecnología, en el que proponía la idea de un “ensamblador” en nanoescala que sería capaz de construir una copia de sí mismo, así como otros objetos de complejidad diversa. También propuso por vez primera el término “plaga gris” para describir lo que podría ocurrir si una máquina hipotética auto-replicante, capaz de operar independientemente, fuera construida y liberada en el ambiente. La vision particular sobre la nanotecnología de Drexler se conoce como Nanotecnología Molecular o manufactura molecular. En la década de 1980 la idea de que la nanotecnología era un área dominada por el determinismo, más que por

Page 70: Trabajo de Nuevas Tecnologías-1

la estocástica, basada en el manejo de átomos y moléculas individuales, fue conceptualmente explorada a profundidad por K. Eric Drexler, quien promovió la importancia tecnológica que los fenómenos y dispositivos en la nano-escala podrían tener a través de conferencias y un par de libros muy populares. En su disertación doctoral realizada en 1991 en el MIT Media Lab, donde obtuvo el primer grado doctoral en el área de Nanotecnología Molecular, Molecular Machinery and Manufacturing with Applications to Computation,7y que se publicó con el título Nanosystems: Molecular Machinery, Manufacturing, and Computation,8 , que recibió el premio de la Association of American Publishers al Mejor Libro de Ciencias Computacionales de 1992. Drexler fundó el Foresight Institute en 1986 con la misión dePrepararnos para la nanotecnología. Drexler ya no es más un miembro del Instituto Foresight

Norio Taniguchi[editar]

El científico japonés Norio Taniguchi de la Universidad de Ciencia de Tokio empleó por vez primera el término “nano-tecnología” en una conferencia en 1974, para describer los procesos de producción de depósitos de capa delgada y de devastado por rayo iónico en semiconductores, con un control dimensional en el orden de nanómetros. Su definición era, “La nano-tecnología consiste principalmente en el procesado, separación, consolidación y deformación de materiales átomo por átomo, molécula por molécula."9 10

Avances experimentales[editar]

La nanotecnología y la nanociencia tuvieron un notable empuje a inicios de la década de 1980 con dos importantes desarrollos: el inicio de la ciencia de cúmulos (clusters) y la invención del microscopio de efecto tunel (STM, por sus siglas en inglés). Estos desarrollos fueron seguidos por el descubrimiento de los fullerenos en 1985 y la caracterización e identificación estructural de los nanotubos de carbono unos cuántos años después (1991).

Invención del Microscopio de Efecto Túnel[editar]

El microscopio de efecto túnel, un instrumento para “visualizar” superficies a nivel atómico, fue desarrollado en 1981 por Gerd Binnig y Heinrich Rohrer en el Laboratorio de Investigación de IBM Zurich, razón por la cual fueron reconocidos con el Premio Nobel de Física en 1986.11 12Binnig, Calvin Quate y Christoph Gerber inventaron el primer microscopio de fuerza atómica en 1986. El primer microscopio de fuerza atómica disponible comercialmente fue introducido al mercado en 1989.

El investigador de IBM, Don Eigler fue el primero en manipular átomos usando un microscopio de efecto túnel en 1989. Empleando 35 átomos de Xenon escribió las letras del logotipo de IBM.13 El compartió el Premio Kavli en Nanociencia por este trabajo.14

Avances en ciencias interfaciales y de coloides[editar]

Las ciencias interfaciales y de coloides han existido por casi un siglo antes de que empezaran a asociarlas a la nanotecnología.15 16 Las primeras observaciones y mediciones de tamaño de nanopartículas se realizaron durante la primera década del siglo XX por Richard Adolf Zsigmondy, quien recibió en 1925 el Premio Nobel en Química; él hizo un estudio detallado de soles de oro y de otros nanomateriales con tamaños de hasta 10 nm usando un ultramicroscopio con el que fue capaz de visualizar partículas mucho menores que la longitud de onda de la luz.17 Zsigmondy fue también el primero en emplear el término “nanómetro” de forma explícita para caracterizar el tamaño de partícula. En la década de 1920, Irving

Page 71: Trabajo de Nuevas Tecnologías-1

Langmuir, ganador del Premio Nobel de Física de 1932 y Katharine B. Blodgett introdujeron el concepto de monocapa, una capa de un material de apenas una molécula de grosor. A inicios de la década de 1950, Derjaguin y Abrikosova llevaron a cabo las primeras mediciones de fuerzas superficiales.18

En 1974 el proceso para realizar depósitos de capa delgada superficiales a nivel atómico fue desarrollado y patentado por Tuomo Suntola y colegas en Finlandia.19

En otro desarrollo, la síntesis y propiedades de nanocristales semiconductors fue estudiada. Esto ha llevado a un gran número, que se sigue incrementando, de nanopartículas de puntos cuánticos de semiconductores.

Descubrimiento de los fullerenos[editar]

El fullereno, o buckminsterfullereno, es una molécula formada por 60 átomos de carbono, de aproximadamente 1 nm de diámetro y

que asemeja un balón de futbol (de ahí su otro nombre: "futboleno").

Los fullerenos fueron descubiertos en 1985 por Harry Kroto, Richard Smalley, y Robert Curl, quienes compartieron el Premio Nobel de Química en 1996. Las investigaciones de Smalley en fisicoquímica, se centraban en el estudio del proceso de formación de cúmulos de elementos inorgánicos y semiconductores, empleando haces pulsados moleculares y espectroscopía de masas de tiempo de vuelo. Debido a que su amplia experiencia en el campo, Robert Curl le presentó a Harold (a.k.a. Harry) Kroto, para iniciar una proyecto de colaboración sobre el estudio de los constituyentes químicos de las nubes de polvo en el espacio sideral. Estas nubes moleculares están enriquecidas con carbono, producto de la explosión de estrellas viejas, como es el caso de R Coronae Borealis. Como resultado de esta colaboración, descubrieron la molécula de C60 y a la familia de moléculas llamada fullerenos, la tercera forma alotrópica del carbono. Descubrimientos posteriores incluyeron los fullerenos endoédricos, y la extensa familia de fullerenos de alto orden.20 21

El descubrimiento de los nanotubos de carbono se atribuye tradicionalmente a Sumio Iijima quien trabajaba en la compañía japonesa NEC en 1991, aunque los nanobutos de carbono carbon ya habían sido producidos y su observación reportada bajo distintas condiciones antes de 1991.22 El descubrimiento de Iijima de los nanotubos de carbono multicapa en el material insoluble producido por el proceso de descarga de arco de electrodos

Page 72: Trabajo de Nuevas Tecnologías-1

de grafito en 199123 y la predicción independiente por Mintmire, Dunlap, y White acerca de que si los nanotubos de carbono de capa simple pudieran ser hechos, exhibirían interesantes propiedades electrónicas y conductivas 24 fue la fuerza de empuje inicial que hoy se asocia a la investigación en nanotubos de carbono. La investigación sobre nanotubos se aceleró de manera notable inmediatamente después del descubrimiento independiente accelerated greatly following the independent discoveries25 26 por Bethune en IBM27 y de Iijima en NEC de los nanotubos de carbono de capa simple y el desarrollo de métodos específicos para producirlos añadiendo catalizadores de metales de transición a la fuente de carbono en el método de descarga de arco.

A inicios de la década de 1990 Huffman y Kraetschmer, de la Universidad de Arizona, descubrieron como sintetizar y purificar grandes cantidades de fullerenos. Esto dio paso a la oportunidad para caracterizarlos y funcionalizarlos a cientos de investigadores en laboratorios alrededor del mundo. Poco después, fue descubierto que moléculas de C60 dopadas con rubidio (Rb) eran superconductores a temperaturas medianas (Tc = 32 K). Durante un congreso de la Materials Research Society en 1992, el Dr. T. Ebbesen (NEC) describió a una audiencia incrédula el descubrimiento y caracterización de nanotubos de carbono. Esta charla motivó a los asistentes a regresar a sus laboratorios para reproducir y avanzar en esos descubrimientos nuevos. Usando sistemas similares a aquellos empleados por Huffman y Kratschmere, cientos de investigadores han hecho notables contribuciones y avances en el campo de la nanotecnología basada en nanotubos de carbono.

Contribuciones regionales al desarrollo de la Nanotecnología[editar]

Estados Unidos[editar]

Los Estados Unidos de América cuentan con una de las infraestructuras educativas, públicas y privadas, más importantes para el desarrollo de proyectos de formación académica de recursos humanos y realización de proyectos de investigación básica y aplicada en nanociencias y nanotecnología a nivel global. Numerosos investigadores estadounidenses destacan por sus contribuciones al desarrollo del área.

Instituciones Educativas y Centros de Investigación[editar]

Centro Internacional de Nanotecnología y Materiales Avanzados de la Universidad de

Texas en San Antonio

Centro para la Ciencia y Tecnología en Nanoescala y Centro de Nanotecnología

Biológica y Ambiental de la Universidad de Rice

College of Nanoscale Science and Engineering de la Universidad Estatal de Nueva

York

Instituto de Nanotecnología “Alan MacMardid” de la Universidad de Texas en Dallas

Page 73: Trabajo de Nuevas Tecnologías-1

Instituto Internacional de Nanotecnología y Centro de Nanofabricación y

Autoensamblaje Molecular de la Universidad de Northwestern

Investigadores Destacados[editar]

Richard Feynman , Instituto Tecnológico de California (fallecido)

Richard Smalley , Universidad Rice (fallecido)

Robert F. Curl , Universidad Rice

Charles Lieber , Universidad de Harvard

Paul Alivisatos , Laboratorio Nacional Lawrence Berkeley

Vicky Colvin28 , Universidad Rice

Chad Mirkin , Universidad de Northwestern

George M. Whitesides , Universidad de Harvard

Fraser Stoddart , Universidad de Northwestern

Iniciativa Nacional en Nanotecnología[editar]

Mihail Roco de la Fundación Nacional para la Ciencia estadounidense proponiendo de manera official la Iniciativa Nacional en

Nanotecnología a la Oficina Ejecutiva del Presidente de los Estados Unidos de América en la Casa Blanca, personaje clave en su

desarrollo inicial.

La Iniciativa Nacional en Nanotecnología (INN) es un programa federal de investigación y desarrollo del gobierno de los Estados Unidos de América. “La INN es el punto central de comunicación, cooperación y colaboración para todas las agencias federales involucradas en investigación en nanotecnología, poniendo juntas la experiencia necesaria para avanzar en este campo amplio y complejo."29 Sus metas son desarrollar un programa de investigación y desarrollo en nanotecnología de clase mundial, fomentar la transferencia de nuevas tecnologías en productos comerciales de beneficio público, desarrollar y mantener recursos

Page 74: Trabajo de Nuevas Tecnologías-1

educativos, una fuerza de trabajo especializada y crear una infraestructura y herramientas de apoyo para avanzar en el área, así como soportar el desarrollo responsable de la misma. La iniciativa fue presentada por Mihail Roco, quien propuso la Iniciativa Nacional en Nanotecnología a la Oficina de Políticas de Ciencia y Tecnología de Estados Unidos de América durante la administración de Bill Clinton en 1999, y fue el arquitecto clave en su desarrollo y creación. Actualmente es asesor principal de Nanotecnología en la Fundación Nacional para la Cienciaestadounidense, así como consejero fundador del Subcomité de Ciencia, Ingeniería y Tecnología en Nanoescala del Consejo Nacional de Ciencia y Tecnología.30

El presidente estadounidense Bill Clinton impulsó el desarrollo de la nanotecnología. En un discurso impartido el 21 de enero del 2000 31 en elInstituto de Tecnología de California, Clinton dijo, "Algunas de nuestras metas pueden llegar a alcanzarse en veinte o más años, pero es precisamente por ello que es importante que el gobierno federal participe.” El prestigio de Feynman y sus conceptos de fabricación precisa a nivel atómico, jugaron un papel central en asegurar el financiamiento para la investigación en nanotecnología, como lo mencionó el propio presidente Bill Clinton en su discurso:

Mi presupuesto apoyará una nueva Iniciativa Nacional en Nanotecnología, con más de 500 millones de dólares. El Instituto de Tecnología de California no es ajeno a la idea de la nanotecnología la habilidad para manipular la materia a una escala atómica y molecular. Hace más de 40 años, Richard Feynman se preguntó, "¿Qué ocurriría si pudiéramos acomodar los átomos uno por uno, de la forma en que nosotros decidamos?"32

El presidente estadounidense George W. Bush incrementó aún más el financiamiento para nanotecnología. El 3 de diciembre de 2003, Bush aprobó el Acta de Investigación y Desarrollo en Nanotecnología del Siglo XXI33 la cual autorizó inversiones para las cinco agencias que participan en ésta por más de 3,630 millones de dólares durante los cuatro años siguientes.34 El presupuesto de la INN para el año fiscal de 2009 otorgó $1,500 millones a la INN, mostrando el crecimiento sostenido en la inversión en nanotecnología.35

México[editar]

Desarrollo histórico[editar]

Aunque el inicio de la nanotecnología y la nanociencia en México puede relacionarse con los trabajos pioneros en microscopía electrónica de transmisión realizados en el Instituto de Investigaciones en Materiales de la UNAM en la década de 1960, podemos afirmar que el primer esfuerzo estructurado e importante en esta área inició a finales de la década de 1990 con la instalación del primer Laboratorio de Nanotecnología de Carbono en 1999 en el Departamento de Física Aplicada y Tecnología Avanzada del Instituto de Física de la UNAM en Juriquilla, Querétaro, encabezado por el destacado nanotecnólogo mexicano, el físico Dr. Humberto Terrones Maldonado. Posteriormente, junto con el físico José Luis Morán, participan en la creación del Instituto Potosino de Investigación Científica y Tecnológica en la ciudad deSan Luis Potosí, sitio en donde crearon el primer programa de posgrado especializado en Nanociencia y Nanotecnología en América Latina (Maestría y Doctorado en Nanociencia y Nanotecnología). Humberto Terrones Maldonado junto con su hermano el Dr. Mauricio Terrones Maldonado atraen al IPICYT a un grupo importante de investigadores en el área de Nanociencia y Nanotecnología entre los años de 2001 y 2009, integrando el entonces llamado “Grupo de Investigación en Nanociencia y Nanotecnología” que en su momento fue considerado uno de los 10 grupos de investigación en el área más productivos e influyentes en el mundo. Como parte de las aportaciones de este grupo de investigación se

Page 75: Trabajo de Nuevas Tecnologías-1

creo el Laboratorio Nacional de Investigación en Nanociencia y Nanotecnología (LINAN) en el IPICYT. Este grupo se desintegró en diciembre de 2009 con la salida del IPICYT de los doctores Mauricio y Humberto Terrones. Paralelo a este esfuerzo, otros grupos fueron formándose y consolidándose en el país. En la UNAM y en el Instituto de Investigaciones Nucleares, el grupo del Dr. Miguel José Yacamán fortaleció sus capacidades para caracterización de materiales nanoestructurados mediante microscopía electrónica de transmisión de alta resolución y desarrolló métodos químicos para la preparación de nanopartículas metálicas y bimetálicas. En octubre de 1994, luego de los esfuerzos de varios investigadores de la UNAM y con apoyo del CONACYT se funda el Centro de Investigación en Materiales Avanzados (CIMAV) en la ciudad de Chihuahua, México. En 2006 se creó el Laboratorio Nacional de Nanotecnología (NanoteCh) en el CIMAV. En abril de 2008 se creó la Unidad del CIMAV en el Parque de Investigación e Innovación Tecnológica en Monterrey, en donde también se realizan trabajos de investigación en nanociencias y nanotecnología.

Investigadores Destacados[editar]

Mauricio Terrones Maldonado , Universidad Estatal de Pennsylvania

Humberto Terrones Maldonado , Universidad Estatal de Pennsylvania

Miguel José Yacamán , Universidad de Texas en San Antonio

José Luis Morán López , IPICYT

Yadira Itzel Vega Cantú , IPICYT

Fernando Jaime Rodríguez Macías, IPICYT

Emilio Muñoz Sandoval , IPICYT

Juan José Vilatela , Instituto Madrileño de Estudios Avanzados-Materiales

Victor Manuel Castaño Meneses, Centro de Física Aplicada y Tecnología Avanzada

Jesús González Hernández , CIMAV

Umapada Pal, Benemérita Universidad Autónoma de Puebla

Velumani Subramaniam, CINVESTAV

Felipe Cervantes Sodi, Universidad Iberoamericana

Sergio Eduardo Ulloa, Universidad de Ohio

Page 76: Trabajo de Nuevas Tecnologías-1

Instituciones Educativas y Centros de Investigación[editar]

Centro de Nanociencias y Nanotecnología, de la UNAM

Departamento de Nanotecnología36 del Centro de Física Aplicada y Tecnología

Avanzada de la UNAM

Laboratorio Nacional de Investigaciones en Nanociencias y Nanotecnología (LINAN)

del IPICYT

Laboratorio Nacional de Nanotecnología (NanoteCh) del CIMAV

Laboratorio Nacional de Nanoelectrónica  (LNN) del Instituto Nacional de Astrofísica,

Óptica y Electrónica

Cluster de Nanotecnología en el Parque de Investigación e Innovación Tecnológica de

Monterrey

Laboratorio Avanzado de Nanoscopia Electrónica del CINVESTAV

Centro de Innovación, Investigación y Desarrollo en Ingeniería y Tecnología (CIIDIT)

de la Universidad Autónoma de Nuevo León

Centro de Investigación en Micro y Nanotecnología (Microna)37 de la Universidad

Veracruzana

Laboratorio de Nanociencia y Nanotecnología38 de la Universidad Iberoamericana

Interés público creciente y controversias[editar]

"Por qué el futuro no nos necesita"[editar]

"Por qué el futuro no nos necesita" es un artículo escrito por Bill Joy, en ese entonces científico en jefe en Sun Microsystems, en el número de abril de 2000 de la revista Wired. En el artículo, el argumenta que "Nuestras tecnologías más poderosas del siglo XXI: robótica, ingeniería genética, y nanotecnología, amenazaban con poner a la raza humana en calidad de especie amenazada." Joy argumenta que el desarrollo de estas tecnologías genera un riesgo para la humanidad mucho mayor que el de cualquier otra tecnología en el pasado. En específico, el se enfoca en la genética, la nanotecnología y la robótica. El dice que las tecnologías de destrucción del siglo XX, tales como la bomba nuclear, estaban limitadas a gobiernos con enorme capacidad política y económica, debido a su complejidad y costo, así como por la dificultad para adquirir los materiales necesarios. El expresa también su preocupación por el incremento en el poder de cómputo. Su preocupación es que las computadoras, en algún momento, se harán más inteligentes que nosotros, llevando a una distopía en donde una pudiera ocurrir una rebelión cibernética. El cita al Unabomber al

Page 77: Trabajo de Nuevas Tecnologías-1

respecto. Después de la publicación del artículo, Bill Joy sugirió que era necesario asesorar a los desarrolladores de las tecnologías para minimizar los peligros implícitos, así como que los científicos deberían negarse a trabajar en tecnologías que pudieran tener potencial impacto dañino. En un artículo del Anuario 2001 de Ciencia y Tecnología de la Asociación Estadounidense para el Avance de la Ciencia (AAAS por sus siglas en inglés), titulado A Response to Bill Joy and the Doom-and-Gloom Technofuturists, Bill Joy fue criticado por su visión pesimista y por no considerar los factores sociales en su predicción.39 Ray Kurzweil, en su libro The Singularity Is Near, cuestionó la regulación de tecnoogías potencialmente peligrosas, pidiendo que "¿Acaso deberíamos decirle a millones de personas afectadas por el cáncer y otras enfermedades devastadoras que vamos a cancelar el desarrollo de todos los tratamientos de bioingeniería debido al riesgo potencial de que estas mismas tecnologías puedan, algún día, ser usadas para propósitos malignos?".

Debate Drexler/Smalley[editar]

Richard Smalley, co-descubridor de los fullerenos, se vio involucrado en un debate público con Eric Drexler acerca de la viabilidad

del ensamblador molecular.

Richard Smalley, mejor conocido como el co-descubridor de las moléculas con forma de balón de futbol, los “fullerenos” y un ferviente defensor de la nanotecnología y sus muchas aplicaciones, era un crítico severo de la idea del ensamblador molecular, que defendía Eric Drexler. En 2001 él explicó una serie de problemas científicos de éstos 40 atacando la idea de los ensambladores universales en un artículo publicado en 2001 en la revista Scientific American, lo que generó una respuesta poco más tarde ese mismo año de parte de Drexler y sus colegas,41 y eventualmente a un intercambio de cartas abiertas en 2003.42

Smalley criticó el trabajo de Drexler en nanotecnología como demasiado ingenuo, argumentando que la química es demasiado complicada, las reacciones difíciles de controlar y que por tanto un ensamblador universal era un objeto ficticio. Smalley creía que tales ensambladores no podían existir físicamente y por tanto señaló una serie de impedimentos científicos a éstos. Sus dos principales objeciones las nombró como “el problema de los dedos gruesos” y “el problema de los dedos pegajosos”, argumentaban contra la capacidad de los ensambladores moleculares para ser capaces de seleccionar con precisión y ubicar átomos individuales. El también creía que las especulaciones de Drexler sobre los peligros apocalípticos de los ensambladores moleculares (la plaga gris) amenazaban el apoyo público al desarrollo de la nanotecnología.

Page 78: Trabajo de Nuevas Tecnologías-1

Smalley primero criticó que los "dedos gruesos" hacían la manufactura molecular imposible. Luego argumento que las nanomáquinas tendrían que parecerse a las enzimas más que a los ensambladores de Drexler y sólo podrían funcionar apropiadamente en agua. El creía que esto excluiría la posibilidad de los “ensambladores moleculares” pudieran trabajar con precisión, tomando y moviendo átomos individuales. También, Smalley comentó que prácticamente toda la química moderna involucra reacciones que ocurren en disolventes (usualmente, agua), debido a que las moléculas pequeñas del disolvente contribuyen en muchos aspectos de la reacción, tales como en la disminución de las energías de enlace en los estados de transición. Ya que prácticamente toda la química conocida requiere de disolventes, Smalley sentía que la propuesta de Drexler de usar ambientes al alto vacío no era práctica. Smalley también creía que las especulaciones de Drexler sobre los peligros apocalípticos de máquinas auto-replicantes que eran similares a los "ensambladores moleculares" podía poner en riesgo la opinión y apoyo público al desarrollo de la nanotecnología. Para mediar en el debate entre Drexler y Smalley sobre los ensambladores moleculares, la revista Chemical & Engineering News publicó una serie de columnas de opinión y contraopinión consistentes en un intercambio de cartas sobre éste tema.42

Drexler y sus colaboradores respondieron a estos dos señalamientos41 en una publicación en 2001. Drexler y sus colegas indicaron que Drexler nunca propuso un ensamblador universal capaz de hacer absolutamente de todo, sino que en vez de ello propuso un ensamblador más bien limitado a hacer una amplia variedad de cosas. Ellos desafiaron la validez de los argumentos de Smalley a las propuestas avanzadas y más específicas que realizó en Nanosystems. Drexler sostuvo que los argumentos de Smalley eran huecos y que, en el caso de las enzimas, el Prof. Klibanov había escrito en 1994, "...el uso de una enzima en un disolvente orgánico elimina varios obstaculos..."43 Drexler también se refirió a ello en Nanosystems mostrando matemáticamente que un catalizador bien diseñado puede contemplar compensar los efectos de un solvente y que puede, fundamentalmente, hacerse más eficiente que lo que podría ser una reacción que requiriera solventes. Drexler tuvo dificultad en conseguir una respuesta de Smalley, pero en diciembre de 2003, Chemical & Engineering News publicó la cuarta parte del debate.42

Ray Kurzweil ocupó cuatro páginas en su libro 'The Singularity Is Near' para demostrar que los argumentos de Richard Smalley no eran validos, y para discutirlos punto por punto. Kurzweil termino diciendo que la visión de Drexler era muy práctica y que incluso ya estaba sucediendo.44

Reporte de la Royal Society sobre las implicaciones de la nanotecnología[editar]

LaRoyal Society y laRoyal Academy of Engineering de Inglaterra, publicó en 2004 un reporte sobre las implicaciones de la nanociencia y la nanotecnología45 inspirado por la preocupación del Príncipe Carlos sobre la nanotecnología, incluyendo la manufactura molecular. Sin embargo, el reporte no dedicó mucho espacio a la manufactura molecular.46 De hecho, el nombre de "Drexler" aparece solo una vez en el texto del reporte (pasajeramente) y las palabras "manufactura molecular" o "nanotecnología molecular" no aparecen en ninguna parte. El reporte trata sobre los riesgos variados de las tecnologías en la nanoescala, tales como la toxicología de nanopartículas. También provee de una visión general sobre varios campos de la nanoescala. El reporte contiene un anexo (apéndice) sobre la plaga gris, la cuál cita una variación debilitada de los arguementos de Richard Smalley en contra de la

Page 79: Trabajo de Nuevas Tecnologías-1

manufactura molecular. El reporte concluye que no hay evidencia de que nanomáquinas autónomas, autoreplicantes puedan ser desarrolladas en el futuro próximo, y sugiere que las regulaciones deban estar más enfocadas con temas relaconados a la nanotoxicología.

Aplicaciones comerciales iniciales[editar]

El inicio de la década del 2000 fue testigo del comienzo del uso de la nanotecnología en productos comerciales, aunque la mayoría de las aplciaciones han estado limitadas al uso en grande escala de nanomateriales pasivos. Ejemplos incluyen el uso de nanopartículas de dióxido de titanio y óxido de zinc en bloqueadores solares, cosméticos y en algunos productos alimenticios; nanopartículas de plata en empaques de alimentos, ropa, desinfectantes y en productos de uso casero tales como la Nano-plata; nanotubos de carbono para textiles anti-manchas; y óxido de cerio en catalizadores de combustible.47 Alrededor de marzo del 2011, el Proyecto de Nanotecnologías Emergentes estimó que más de 1300 productos manufacturados e identificados estaban disponibles públicamente, con los más nuevos impactando el mercado a una velocidad de 3 o 4 por semana.48

La Fundación Nacional para la Ciencia estadounidense apoyó al investigador David Berube para estudiar el campo de la nanotecnología. Sus hallazgos se publicaron en la monografía "Nano-Hype: The Truth Behind the Nanotechnology Buzz". Este estudio concluyó que mucho de lo que se vende como "nanotecnología" es en realidad un producto común proveniente de la ciencia de materiales, lo que nos está llevando a una "industria de nanotecnología soportada en la venta de nanotubos, nanoalambres y sus similares", con lo que "terminará con unos cuántos proveedores vendiendo productos con un bajo margen de ganancia en gran volumen". Las aplicaciones futuras requerirán manipulaciones reales sobre el arreglo de los componentes en la nanoescala y ésto requerirá de nuevas investigaciones. Aunque algunas tecnologías se comercializan con el término 'nano', muy pocas veces están realmente relacionadas a este campo y se alejan de las metas transformadoras y ambiciosas de las propuestas de la manufactura molecular, al menos como se pensaría que fueran. De acuerdo a Berube, hay un riesgo de que una "nano burbuja" se forme, o se esté formando actualmente, por el uso común del término entre científicos y emprendedores para allegarse de fondos, sin interesarles las posibilidades transformativas de trabajos más ambiciosos y de largo alcance.49

Referencias[editar]

1. Volver arriba ↑

Page 80: Trabajo de Nuevas Tecnologías-1

La tecnología fundamental del siglo XXI: NanoTecnología

Palabras clave: NanoTecnología, nanomateriales.

Key words: Nanotechnology, nanomaterials.

Resumen: En las últimas décadas del pasado siglo XX y en los primeros años del XXI, el tema de la NanoTecnología ha

ido ganando cada vez más interés, tanto cognoscitivo como en el campo de sus aplicaciones. En el presente artículo se

hace una breve revisión de los conceptos fundamentales de esta novedosa tecnología, su importancia y sus métodos

generales de trabajo; también se presentan algunas consideraciones sobre el impacto social y económico de la Ciencia y la

Tecnología de los nanomateriales, resaltándose la importancia del papel de la divulgación de los logros de esta área de

I+D+i, así como la educación específica y multidisciplinaria de nuevas generaciones de científicos y tecnólogos.

Abstract: In the last decades of last XX Century and in the first years of this XXI Century, the topic of Nanotechnology has

gone winning more and more interest so much cognitive as in the field of its applications. In this paper it is done a brief

revision of the fundamental concepts of this novel technology, its importance and its general methods of work; some

considerations are also presented on the social and economic impact of the Science and the Technology of the

nanomaterials being stood out the importance of the paper of the popularization of the achievements of this area of R&D as

well as the specific and multidisciplinary education of new generations of scientific and technologists.

Autores: Joaquín Tutor Sánchez   , Víctor Ramón Velasco Rodríguez, José Manuel Martínez Duart

Page 81: Trabajo de Nuevas Tecnologías-1

Introducción

En la actualidad los conceptos de NanoCiencia y NanoTecnología están directamente relacionados con la creación de

materiales útiles, dispositivos y sistemas a través de un control de sus componentes a escala nanométrica, con el objetivo

de explotar las nuevas propiedades y fenómenos que emergen a dicha escala.

El desarrollo y la producción de artefactos en cuyo funcionamiento resulta crucial una dimensión de menos de 100

nanómetros (1 nanómetro (nm), equivale a 10-9 metros) permitirá obtener materiales con una enorme precisión en su

composición y propiedades. Estos nuevos materiales podrían proporcionar estructuras con una resistencia sin precedentes

y ordenadores extraordinariamente compactos y potentes. Igualmente, la NanoCiencia y la NanoTecnología podrían

conducir a métodos revolucionarios de fabricación de objetos átomo por átomo y al empleo de cirugía a escala celular.

Figura 1 a).

Figura 1 b).

En estos momentos es tan difícil establecer una distinción estricta entre las investigaciones básicas aplicadas y los

desarrollos tecnológicos en la NanoCiencia y la Nanotecnología, que internacionalmente ya es habitual englobar en el

término NanoTecnología tanto a la Ciencia como a la Tecnología a escala nanométrica.

Los orígenes de la NanoTecnología se remontan al 29 de diciembre de 1959, cuando el físico estadounidense Richard

Feynman dio una conferencia ante la American Physical Society, titulada "Hay mucho sitio en el fondo". En aquella

conferencia, Feynman trató los beneficios que supondría para la sociedad el que fuéramos capaces de manipular la

sustancia y fabricar artefactos con una precisión de unos pocos átomos, lo que corresponde a una dimensión de 1 nm,

Page 82: Trabajo de Nuevas Tecnologías-1

aproximadamente. Sin embargo, no fue hasta 1974 cuando el especialista japonés Nomo Taniguchi acuñó el término

"nanotecnología", en relación con la fabricación de productos mediante métodos de mecanizado. Taniguchi mostró cómo la

tendencia a aumentar la precisión de fabricación estaba llevando inexorablemente al punto en que, en el año 2000, las

piezas fabricadas con un mecanizado "normal" tendrían una precisión de 1 µm, mientras que el mecanizado "de precisión"

supondría una precisión de 10 nm y el "ultrapreciso" de hasta 1 nm.

A nivel internacional, el tema de la Ciencia y la Tecnología de las nanoestructuras es algo que ha venido creciendo cada día

más. Muchos países de Norteamérica, Europa, Asia y América Latina están llevando a cabo planes nacionales con el fin de

desarrollar ampliamente esta área de la Ciencia y la Tecnología en los próximos años. Ha quedado expuesto por muchos

autores que las mayores aplicaciones de la NanoTecnología se dirigen hacia la microelectrónica, la informática, las

comunicaciones, la automoción, la aeronáutica, la logística militar, la cosmética, la salud humana y animal, y el medio

ambiente. Debido a que la NanoTecnología está en todo lo que nos rodea y sus efectos pueden apreciarse en productos de

uso cotidiano como los ordenadores, los cosméticos, los móviles, los refrigeradores o los automóviles, esta rama de la

Ciencia y la Tecnología será capaz de generar modificaciones trascendentales en los comportamientos económicos y

sociales a escala mundial.

Importancia de la NanoTecnología

Durante la evolución y desarrollo de la NanoTecnología se han podido evidenciar las respuestas al porqué esta nueva

tecnología es importante. Estas respuestas se encuentran en las siguientes razones:

Una de las primeras razones es que, creando estructuras a escala nanométrica, es posible controlar propiedades

fundamentales de los materiales; utilizando este potencial tendremos productos y tecnologías de altas prestaciones nunca

antes alcanzadas. Esto se puede ejemplificar con propiedades tales como la magneto-resistencia gigante o la obtención de

piezas a partir del mecanizado ultrapreciso (ver figura 1a y 1b).

En los últimos años se ha comprobado que la organización de la sustancia a escala nanométrica es la clave del futuro de

los sistemas biológicos. La NanoTecnología permitirá ubicar componentes y agrupaciones de componentes en el interior de

células y obtener nuevos materiales usando el método de auto-organización propio de la Naturaleza. Esta potente

combinación de la ciencia de materiales y la biotecnología permitirá procesos e industrias completamente novedosas.

Figura 2.

Otra razón por la cual la NanoTecnología es muy importante viene dada en el hecho de que los sistemas

nanoestructurados, tales como nanopartículas y nanocapas, tienen una altísima razón superficie/volumen (figura 2), siendo

esta razón ideal para el uso en materiales compuestos, reacciones químicas, liberación controlada de medicamentos y

almacenamiento de energía.

Por último, debe destacarse que las nanoestructuras son sistemas tan pequeños que pueden utilizarse para construir

dispositivos que contengan una mayor densidad de componentes en comparación con los dispositivos micrométricos;

controlando las interacciones y la complejidad de las nanoestructuras pueden lograrse nuevos conceptos de dispositivos

electrónicos, circuitos más pequeños y más rápidos, funciones más sofisticadas y una gran reducción de la potencia

consumida.

Métodos generales de fabricación y producción de nanomateriales

Desde su nacimiento, la NanoTecnología se caracterizó por haberse desarrollado a través de dos métodos generales, tanto

experimental como teóricamente. Estos métodos generales están caracterizados por la forma en que se producen, se

Page 83: Trabajo de Nuevas Tecnologías-1

caracterizan y se modelan los nanomateriales. Se conocen hoy en día como NanoTecnología de Arriba a Abajo y NanoTecnología de Abajo a Arriba. Veamos una breve descripción de estos métodos.

NanoTecnología de Arriba Abajo

A través de este método se puede acercar a la precisión necesaria gradualmente, sobre todo mediante refinamientos de

diferentes tecnologías de fabricación. La capacidad de controlar la precisión de fabricación hasta esos extremos está

proporcionando muchos beneficios -a veces inesperados- que van más allá de la capacidad de producir un objeto con una

forma muy bien definida. Los procedimientos técnicos más utilizados para proceder de Arriba Abajo son: el mecanizado

ultrapreciso y técnicas litográficas tales como: fotolitografía, litografía por haces de electrones, etc. Como elemento a

destacar en este proceder está el siguiente: en 1964, Gordon Moore, de la empresa estadounidense Fairchild

Semiconductor Corporation, predijo que el número de transistores que se podrían fabricar en un chip se duplicaría cada

año. Haciendo uso del procedimiento nanotecnológico de arriba abajo la última tecnología en chips comerciales, como el

Pentium de Intel, ha logrado una anchura de línea de unos 300 nm, con aproximadamente 1,5 millones de transistores en

cada chip. Algunos dispositivos especializados, como los chips de memoria dinámica de acceso aleatorio (DRAM) que

pueden almacenar hasta 64 millones de bits de información, tienen más de 64 millones de transistores. En los primeros

años del siglo XXI, las anchuras de línea mínimas de los chips comerciales disminuyeron hasta 100 o 200 nm en

componentes como los chips de DRAM, que podrían almacenar más de 1.000 millones de bits.

NanoTecnología de Abajo a Arriba

El concepto de construir un artefacto manipulando materia a escala nanométrica y ensamblando objetos átomo a átomo o

molécula a molécula (el llamado enfoque de Abajo a Arriba de la NanoTecnología) se planteó por primera vez en la

ya citada conferencia de Feynman en 1959. A lo largo de los últimos 15 años, este método general ha sido popularizado por

Eric Drexler, ex director del Foresight Institute de Palo Alto, California. Drexler ha descrito estructuras moleculares de escala

nanométrica movilizadas en gran número -miles de millones- como robots programables para montar cualquier cosa. De

esta forma se han sugerido múltiples aplicaciones para estos "nanorobots", que incluso podrían introducirse en el cuerpo

humano para detectar y reparar daños en las células.

Figura 3.

Es altamente conocido que la tecnología de Microscopia de Fuerza Atómica (AFM) se emplea para obtener imágenes a

escala atómica de variadas estructuras materiales. Sin embargo esta tecnología también puede emplearse para recoger y

reemplazar átomos en una superficie, o empujarlos de un lado a otro, aplicando impulsos eléctricos. Ejemplo de esto ha

sido la obtención de los llamados fullerenos (figura 3).

Otra área de trabajo de esta tecnología de Abajo a Arriba es la fabricación de materiales en los que algunos componentes

se estructuran deliberadamente para que estén en la zona nanométrica. Estos materiales se denominan materiales de

nanofase. Un ejemplo de este tipo de materiales nanoestructurados son las heteroestructuras semiconductoras

nanométricas, que consisten en uniones de diferentes compuestos semiconductores obtenidos por métodos ya tan

conocidos como la Epitaxia por Haces Moleculares (MBE), la Deposición Química de Vapores Metalorgánicos (MOCVD), la

Deposición de Vapores Químicos (CVD) y la Epitaxia por Haces Químicos (CBE) (figura 4). Los espesores de las capas

semiconductoras, que provocan nuevos y trascendentes efectos, son de entre algunas decenas de nanómetros hasta

cientos de ellos.

El campo de los materiales de nanofase se ha ampliado hasta incluir el estudio de las propiedades electrónicas y ópticas de

los polvos ultrafinos. Se sabe que, desde la época de los romanos, se podían obtener vidrios con un profundo color rubí

dispersando en él partículas ultrafinas de oro. Estas partículas pueden alcanzar un tamaño de hasta unos 100 nm. En la

Page 84: Trabajo de Nuevas Tecnologías-1

actualidad, científicos y tecnólogos estudian las propiedades ópticas de una amplia gama de materiales, especialmente

semiconductores, en forma de polvos ultrafinos con fines bioinformáticos, de salud y en cosmetología.

Impacto Económico y Social de la NanoTecnología

Los nuevos conceptos de la NanoTecnología son tan amplios y penetrantes que se espera que influyan en todas las áreas

de la Ciencia y la Tecnología en formas que hoy aún son impredecibles. Hoy en día sólo se conoce una pequeña parte de

todas las posibilidades que esta nueva Tecnología puede aportar (figura 5), y ello justifica el esfuerzo que hay que hacer

para llevar adelante la Investigación, el Desarrollo y las futuras Innovaciones.

Figura 4.

Desde el punto de vista económico se ve como, hoy en día, los materiales reforzados con nanopartículas están influyendo

considerablemente en la industria automotriz y aeronáutica; la fabricación de pozos cuánticos, superredes, alambres

cuánticos y puntos cuánticos, así como nuevos dispositivos producidos a partir de estos objetos, están revolucionando la

Electrónica y las Comunicaciones; la obtención de nuevos medicamentos nanoestructurados, nuevos estudios genéticos y

sistemas de liberación controlada de fármacos dan lugar a nuevas concepciones en la obtención de productos

farmacéuticos, en la salud humana y animal y en general en las ciencias de la vida. La confección de membranas

selectivas, en forma de trampas nanométricas para eliminar contaminantes, permitirá realizar una contribución muy

favorable al cuidado y protección del Medio Ambiente. Y también nuevos detectores de agentes químicos y biológicos,

recubrimientos nanoestructurados fuertes, y materiales de camuflaje obtenidos a partir de nanomateriales, darán un vuelco

a las concepciones de la defensa.

Las metas de las investigaciones en NanoTecnología son tan fundamentales, tan interdisciplinarias y de tan alto riesgo para

lograr un liderazgo industrial, que se ha despertado un marcado interés entre industriales y empresarios a nivel

internacional. Eso sí, sin descartar que muchas de ellas sólo se lograrán a largo plazo. El impacto socio económico de la

NanoTecnología será mucho mayor que el de los circuitos integrados de silicio, debido a que su influencia abarca un mayor

número de campos.

Existen dos aspectos de carácter social que permitirán la lógica continuidad y los éxitos propios de la NanoTecnología.

Estos son: la labor del área de las ciencias sociales y la labor del sector educacional.

Los especialistas dedicados al tema de la relación ciencia-sociedad deberán velar por cómo se conduce y cómo se

desarrolla la NanoTecnología. ¿Cómo se logrará esto? Pues ayudando a los "tomadores de decisiones" ("policymakers") a

decidir, de forma consciente y coherente, qué áreas deberán ser priorizadas y cómo financiarlas para obtener los mejores

resultados en el futuro; dando a conocer a las grandes masas cómo está avanzando la NanoTecnología; conociendo cómo

están diseminándose los avances de la NanoTecnología y, por último, sabiendo cómo proponer la corrección del curso del

desarrollo de la NanoTecnología cuando sea necesario. Para esto los especialistas deberán identificar, prever e investigar

el grado variable de la aceptación social a las nuevas tecnologías, teniendo en cuenta indicadores de medida de la

aceptación de la NanoTecnología en sectores tales como: la economía, la política, la religión y la cultura.

Page 85: Trabajo de Nuevas Tecnologías-1

Figura 5.

Otro aspecto trascendente es la labor educacional. La formación básica y especializada de recursos humanos es también

de tremenda importancia para el futuro de la Ciencia y la Tecnología del campo de las nanoestructuras. La creación de

recursos humanos multidisciplinarios que trabajen en este campo es una absoluta necesidad. Si se quieren obtener

ventajas de este revolucionario y excitante campo, las personas deben comenzar a pensar en formas verdaderamente no

convencionales. Pero aun más, el hecho real de que en un futuro no muy lejano nuevos equipos e instrumentos

comercializados tengan sus bases en la NanoTecnología hace que sus usuarios deban conocer el principio de su

funcionamiento y las bases de sus construcciones, lo que dará lugar a una cultura elemental generalizada en las grandes

masas acerca de esta área de la Ciencia y la Tecnología contemporánea: como hoy es de conocimiento general el

funcionamiento de una bujía eléctrica para el alumbrado, mañana deberá ser de conocimiento general el funcionamiento de

un puntero láser construido gracias a los éxitos alcanzados en el campo de la optoelectrónica de las nanoestructuras

semiconductoras.

Bibliografía.http://nano.gov

De cara a dar respuestas a estos dos últimos aspectos en Iberoamérica, la divulgación y la formación, recientemente ha

sido aprobada una Red Temática Iberoamericana, la Red "José Roberto Leite" de Divulgación y Formación en

NanoTecnología, del Programa Iberoamericano de Ciencia y Tecnología para el Desarrollo (CYTED). Entre otros objetivos

esta red se propone identificar cuál es la situación actual de las actividades divulgativas y formativas a distintos niveles en

NanoTecnología en la región iberoamericana.

Conclusiones

En resumen, no es sorprendente que la NanoTecnología pueda ser considerada como la tecnología fundamental del siglo

XXI, que provocará sin duda, sí no ha provocado ya, una nueva revolución en los campos del pensamiento, de la economía

y de la sociedad; hasta tal punto que se requerirá de todo el esfuerzo de científicos, tecnólogos, políticos, economistas,

Page 86: Trabajo de Nuevas Tecnologías-1

profesores y maestros para conducir de forma armónica y consecuente los logros de una nueva tecnología que nos podrá

brindar una mejor calidad de vida si se sabe utilizar adecuadamente.

Descargar este artículo en formato PDF