jueves, 24 de julio de 2014

Nanociencia y Nanotecnología

NANOCIENCIA Y NANOTECNOLOGÍA
Entre la ciencia ficción del presente y la tecnología del futuro

Contenido
1. NANO-INTRO: El nano-mundo a vista de pájaro
El mundo invisible
Nanotecnología... ¿Qué significa esta palabra?
La tecnología actual o ¿hasta dónde es posible reducir el tamaño de un objeto?
CE La teoría cuántica
La tecnología actual frente a la del futuro: Top-down frente a Bottom-up
Los orígenes de la nanotecnología
CE El discurso de Feynman “There is plenty of room at the bottom”
CE ¿Cómo llegar a ser nanotecnólog@?

2. NANO-HERRAMIENTAS: El arte de ver, tocar, mover y escribir
Microscopios para ver
Microscopios de campo cercano: no sólo los ojos, sino también las manos
CE La “magia” de la física cuántica para construir microscopios
Manipulación de la materia mediante el uso de microscopios
Otras técnicas litográficas
CE ALBA, el sincrotrón español: una herramienta kilométrica para estudiar objetos nanométricos

3. NANO-MATERIALES: Nuevos materiales para un nuevo siglo
En un mundo de carbono
El balón de fútbol más pequeño del universo: los fullerenos
 Nanotubos de carbono: el hilo mágico
CE Construyendo “macro”-tubos de carbono
CE Los nanotubos como un nuevo acero
CE La tela de araña y la cabra Spiderman

4. NANO-QUÍMICA: La danza de las moléculas
Construcción de dispositivos moleculares mediante la aproximación bottom-up
La química supramolecular y el diseño de moléculas a la carta
CE La nanotecnología mueve montañas: Máquinas moleculares
Las monocapas autoensambladas
Nanopartículas

5. NANO-BIOTECNOLOGÍA: En busca de los secretos de la vida
Primera estación: el micromundo
CE Los virus: nanomáquinas que evolucionan
¡Pero estamos hechos de nanocosas!
CE Origen de la vida, biología sintética y nanotecnología
CE Un zoom sobre un ser vivo: de lo macro a lo nano sin salir de la charca
Manipulando nano-bio-objetos
CE El ADN como nanobiopolímero
Hacia la nanomedicina
Nanosubmarinos y nanorobots en nuestro cuerpo
El fabuloso mundo de los nanobiosensores

6. NANO-ELECTRÓNICA: Del silicio a las moléculas
El siglo XX: la era de la Electrónica
¿Algún día dejarán de usarse los semiconductores para fabricar “chips”?
Cuando la ley de Ohm da problemas: transporte balístico
Y además...¡más efectos cuánticos!
CE Mecánica Cuántica encima de una mesa
La nueva electrónica: moléculas, nanotubos, nanohilos, puntos cuánticos
CE Los ordenadores cuánticos y la nanotecnología
Más allá de la electrónica: nanofotónica, espintrónica, biocomputadores y “ciempiés”
Nanociencia y Nanotecnología. Entre la ciencia ficción del presente y la tecnología del futuro

7. NANO-SIMULACIÓN: El laboratorio en un ordenador
El método científico y las matemáticas
Calcular para predecir
De las reglas de cálculo a los superordenadores
Simulación: una forma de ahorrar recursos y tiempo
Cálculos en la nanoescala: de los cálculos ab-initio a los métodos semi-clásico

8. NANO-APLICACIONES: Del laboratorio al escaparate
Nanomateriales
Nanoelectrónica
Nanobiotecnología y nanomedicina
Instrumentación, sensores, actuadores, ensambladores
La llegada de la nanotecnología: un proceso de varias etapas
De compras por el nano-mercado

9. NANO Y SOCIEDAD: implicaciones sociales de la nanotecnología
Algo más que la nueva revolución industrial
“Nano”+”Bio”+”Info”+”Cogno”: La convergencia NBIC
Nanotecnología, sostenibilidad y responsabilidad
CE Nano-eco-toxicología: “Hombre prevenido vale por dos”
El impacto mediático de la nanotecnología
CE “WEBOTECA” – Nanociencia y Nanotecnología en la Red






Nano-intro: El Nano-mundo a vista de pájaro
1
Una vez establecida la diferencia entre ciencia y tecnología, pasemos al significado de la palabra “nano”. Nano es un prefijo proveniente del vocablo griego νανοϛ que significa diminuto, enano, pequeño. Este prefijo se utiliza en el sistema internacional (S.I.) de unidades para indicar un factor de 10-9 (es decir, multiplicar algo por 0.000000001, o la mil millonésima parte de algo).

Así podríamos decir que nanociencia es la ciencia que puede realizarse con objetos de tamaño “mil-millonesimométrico” (o mejor nanométrico). Por tanto, un nanómetro es la millonésima parte de un milímetro, una longitud 80,000 veces más pequeña que el diámetro de un cabello humano.

A su vez, nanotecnología será la tecnología generada con objetos cuyo tamaño oscila desde una décima de nanómetro a una centena de nanómetro. Esta escala de tamaños es un tanto arbitraria. El límite inferior (una décima de nanómetro) parece claro, ya que por debajo del átomo no hay “objetos” manipulables. Sin embargo, el límite superior (una centena de nanómetro) es una referencia para indicar que los objetos deben de estar por debajo de la micra.

Hoy en día tenemos el conocimiento necesario para mover, manipular y construir objetos de estos tamaños (nanociencia), que serán utilizados en un futuro cercano para realizar una función específica dentro de un determinado dispositivo (nanotecnología).

Dicho de otra manera: actualmente hemos avanzado bastante en lo que a nanociencia se refiere y estamos desarrollando las primeras aplicaciones nanotecnológicas.

Del gran impacto que está teniendo actualmente la nanotecnología y de las enormes aplicaciones que de ella se derivan, proviene la gran proliferación del prefijo “nano”. Así, oímos hablar de disciplinas como nanoquímica, nanoelectrónica, nanomedicina o nanobiotecnología; o de objetos tales como nanopartículas, nanotubos, nanoimanes o nanomotores.

En definitiva, el colocar el prefijo “nano” delante de una palabra determinada nos indica que ese campo se va estudiar desde sus componentes más pequeños. Estos pueden considerarse que son los actores del nanomundo, objetos con tamaños comprendidos entre 0.1 nm y 100 nm.

Sin embargo, uno podría preguntarse ¿cuál es entonces la verdadera diferencia que existe entre la nanotecnología y la química? ¿No han intentado los químicos trabajar con átomos desde que Dalton en 1808 postulase su existencia? La diferencia reside precisamente en la forma en la que se manejan los objetos.

Mientras que la química ha trabajado tradicionalmente desde un punto de vista macroscópico y global (por ejemplo, siguiendo las reacciones que ocurren en un tubo de ensayo mediante cambios en el color, temperatura o pH), la nanociencia sigue estos procesos a una escala atómica o molecular, pero de manera individual: entendiendo, manipulando y actuando sobre una molécula en particular (o un átomo, o una nanopartícula, o una proteína...).


EEE 1.4 Superficie y volumen

A medida que los objetos se hacen más pequeños, se van convirtiendo más “en superficies”, donde los átomos tienen menos vecinos, tienen la posibilidad de escapar antes del material, pueden “sentir” mejor la presencia de otros átomos externos y reaccionar con ellos. Estas modificaciones en las propiedades se conocen como efectos de tamaño finito.

EEE 1.5 Un “no experimento”
En 1774, B. Franklin observó que, en las islas Bermudas, los pescadores echaban aceite en las aguas del mar para apaciguar las olas y poder ver más fácilmente los peces bajo el agua. A raíz de esta observación, a Franklin se le ocurrió verter una cucharada de aceite en un puerto para ver que ocurría.

 Sorprendentemente, observó como casi inmediatamente se calmaban las olas en un área de varios metros cuadrados, y como este efecto “se iba expandiendo despacio hasta afectar a aproximadamente medio acre, convirtiendo la superficie del agua en un suave espejo”. Franklin no hizo la cuenta, pero si hubiese sabido algo más acerca de la molécula de aceite (ácido oleico), se habría dado cuenta de que una cucharada de unos 2 ml distribuida sobre medio acre (0.2 hectáreas) corresponde a un espesor de la capa de aceite de aproximadamente 2 nm.

Unos 100 años más tarde, Lord Rayleigh se dio cuenta de que el espesor del aceite en agua es de una sola capa molecular. ¡Bastaba una sola capa de moléculas para cambiar radicalmente las propiedades del agua del puerto!


El segundo problema con que nos encontramos en esta carrera sin fin hacia la miniaturización reside en que para tamaños del orden o inferiores al nm aparecen efectos que son diferentes a los que gobiernan la materia a escala macroscópica, los llamados efectos cuánticos.

La física cuántica requiere una nueva forma de pensar. En nuestro mundo las ecuaciones de Newton definen el movimiento de los cuerpos, las de Maxwell la radiación electromagnética y la ley de Ohm la electricidad.

Éstas y otras leyes simples dejan de ser válidas cuando tratamos con objetos muy pequeños. La física cuántica, con sus paradojas, nos demuestra nuestra incapacidad para conocer de manera absoluta el mundo que nos rodea, ya que sólo seremos capaces de describir la probabilidad de que un objeto esté en un determinado lugar o de que un suceso ocurra.

Así, con el desarrollo de la física cuántica en la primera mitad del siglo XX, el concepto de átomo pasó de ser una certeza que nos permitía explicar la naturaleza y hacer predicciones fiables, a ser un concepto etéreo y de difícil comprensión dentro de nuestra lógica cartesiana.

Estas nuevas leyes y fórmulas descritas por la teoría cuántica son verdaderamente sorprendentes ya que contradicen nuestra lógica basada en la experiencia en el mundo cotidiano. Los principales conceptos de la teoría cuántica están resumidos en el cuadro específico “la teoría cuántica”, aunque te recomendamos que la consumas con moderación: ¡podrías difractarte o “tunelear” y aparecer en la habitación contigua!

EEE 1.6 La Física
¿Sabías que la palabra física viene del término griego φύσις que significa naturaleza? De hecho, fue en la antigua Grecia donde se desarrolló esta disciplina de forma cercana a la filosofía, como una forma de explicar el mundo que nos rodea de una manera global. Busca en la red los científicos que recibieron el Premio Nobel de Física desde 1901, fecha en el que se instauró el galardón.


La teoría cuántica
En el mundo cotidiano en el que nos desenvolvemos, las distancias típicas entre objetos son las que separan este libro de tus ojos: se pueden medir con una cinta métrica. Todo lo que mida milímetros o diste kilómetros de nosotros forma parte de nuestro mundo, porque lo abarcamos con la vista y tenemos una imagen de estos objetos.

Cuando algo sobrepasa estos tamaños nos cuesta imaginarlo o entenderlo. Nos resulta difícil comprender cómo de pequeño es un virus, o la distancia entre la Tierra y la Luna. Sin embargo, esto es una apreciación puramente sensorial, porque objetos y distancias más grandes y más pequeñas siguen obedeciendo las mismas leyes, las llamadas leyes de Newton.

Newton, a finales del siglo XVII, con sus famosas leyes recogidas en el libro “Philosophiae Naturalis Principia Mathematica”, estableció una serie de principios universales que afectan tanto al movimiento de un grano de polen como a un cometa en su viaje interplanetario.

Más tarde, en el siglo XIX, fue R. Maxwell quien escribió las ecuaciones referentes a la radiación electromagnética. Sin embargo, estas leyes, que suelen denominarse “clásicas”, dejan de ser válidas en dos casos: cuando las velocidades de los objetos son elevadas (cercanas a la de la luz) y cuando las dimensiones de los objetos son muy pequeñas (por debajo del nanómetro).

La primera de las excepciones la solventó A. Einstein con su teoría de la relatividad (ver la unidad didáctica ‘La huella de Einstein’, editada por la FECYT en 2005). La segunda se complementa dentro de lo que se ha llamado teoría cuántica, de la que vamos a hablar aquí.

A diferencia de la relatividad, enunciada por Einstein, la teoría cuántica se ha ido construyendo poco a poco con las contribuciones de muchos científicos que, desde principios del siglo XX, se dieron cuenta de que el mundo atómico no es tan simple como el nuestro, y que en él aparecen comportamientos que contradicen nuestra experiencia y nuestra lógica newtoniana.

Estas nuevas observaciones, que no se entendían, requerían de una nueva física para explicarlas. La nueva teoría debía explicar por qué los átomos son estables, el color de los materiales, la estructura de la tabla periódica, por qué se producen los enlaces químicos... Dos son los motivos por los que la teoría cuántica se hace tan difícil: primero no existe una formulación única ya que son conclusiones que diversos científicos fueron estableciendo a lo largo de décadas y, segundo, contradice nuestra experiencia e intuición, lo que ha generado sinfín de debates filosóficos sobre la naturaleza de la materia.

El nombre de “Teoría Cuántica” o “Mecánica Cuántica” proviene del descubrimiento, realizado por M. Planck alrededor de 1900, de que la energía no es continua, sino que sólo existe y se puede intercambiar en paquetes o grupos llamados cuantos. Así, la energía se parece más a partículas de materia que a una propiedad de la materia. La energía del paquete más pequeño es una propiedad fundamental de la naturaleza relacionada con una constante, la constante de Planck, llamada h, y cuyo valor es de 6,63x10-34 Js.

Como se puede apreciar, su valor es muy pequeño en las unidades de nuestro mundo y, por tanto, podemos despreciarla en nuestra vida cotidiana. Pero no en el nanomundo (el de los átomos, moléculas, partículas...) ni mucho más “al fondo” (en el mundo de las partículas subatómicas), donde se convierte en una magnitud muy respetable. La teoría cuántica nos permite entender el átomo.

 N. Bohr fue quien estableció la primera imagen moderna del átomo utilizando la constante de Planck, y desencadenando con sus afirmaciones el comienzo de la era cuántica, en 1905. Los electrones se organizan alrededor del núcleo atómico, pero no lo hacen tomando cualquier valor, como pasaría si fueran planetas que orbitan en torno a una estrella (modelo atómico de Rutherford).

Los electrones sólo pueden tener unos valores fijos de energía y, por tanto, sólo unas ciertas órbitas son permitidas.

Cualquier energía que no esté permitida dará lugar a órbitas inestables en las que no podrá mantenerse el electrón. Es como si los electrones se ordenasen alrededor del núcleo como yo ordeno los libros en mi estantería: sólo pueden estar en una balda o en la siguiente, nunca entre dos niveles.

 La forma de pasar de un nivel bajo a otro alto es aportando una energía precisa. En la estantería sería la necesaria para que mi brazo venza la gravedad durante unos centímetros, y en un átomo, por ejemplo, la aportada por un fotón (onda electromagnética con una energía definida). Esta descripción no tiene sentido dentro de las leyes ‘clásicas’ ya que, en éstas, el electrón, como un satélite artificial alrededor de la tierra, puede tener órbitas estables para cualquier energía. Estas ideas fueron completadas por W. Heisenberg y E. Schrödinger en la década de 1920, quienes definieron al electrón no como una partícula (es decir un objeto dotado de masa y un momento cuando se mueve), sino como una función matemática llamada función de onda, que denotaron con la letra griega Ψ, y cuya amplitud elevada al cuadrado nos da la probabilidad de encontrar al electrón dentro de un átomo en una posición determinada en un momento dado.

Es decir, un electrón en un átomo deja de ser una partícula puntual, situada en un lugar del espacio y moviéndose a una velocidad bien definida, para convertirse en algo similar a una nube cargada deslocalizada, que está en todas partes, y la probabilidad de encontrarlo en un punto determinado depende de la densidad que tenga la nube en dicho punto.

Esta visualización de un electrón en un átomo como una nube de carga fue propuesta por R. Feynman, del que hablamos en otro cuadro específico de este capítulo. Hemos hecho hincapié en que se trata de un electrón en un átomo, ya que si se tratase de un electrón libre, que se ha escapado del entorno del núcleo, éste se podría visualizar de otra forma: como una onda.

Este es otro de los puntos importantes de la teoría cuántica: ondas y partículas se mezclan como un todo. Ya Einstein se dio cuenta de que la luz podía comportarse como una partícula, introduciendo el concepto de fotón (de hecho, Einstein ganó el premio Nobel por este trabajo y no por la teoría de la relatividad, como mucha gente piensa).

 Un poco más tarde L. de Broglie descubrió que, sorprendentemente, también las partículas pequeñas, como el electrón, pueden comportarse como ondas. Esto es asombroso, ya que contradice toda nuestra  experiencia del concepto de partícula: objeto pequeño, que tiene una masa, una velocidad y una posición determinada en el espacio.

Esta naturaleza ondulatoria de la materia se manifiesta con más énfasis cuando el objeto se mueve a bajas velocidades o tiene una masa pequeña. Así en el mundo atómico y subatómico todo parece mezclarse: materia, ondas y energía se comportan unas como otras. Esta mezcla de propiedades llevó a Heisenberg a postular que existen magnitudes complementarias, como posición y velocidad, energía y tiempo, de manera que si definimos bien una de ellas, la otra queda completamente indeterminada.

Así y, contrariamente a los principios de  la física clásica, nunca se pueden determinar o medir simultáneamente ambas magnitudes. Esto se conoce como el principio de incertidumbre de Heisenberg.

Hemos dicho que la presencia de una partícula en un punto se calcula a partir de una función matemática, que se conoce como la función de onda de Schrödinger, Ψ. Esta función se obtiene al resolver una ecuación, la llamada ecuación de onda, que junto con la ecuación de Einstein (E=mc2) es una de las ecuaciones más importantes de la física y que reproducimos para que le perdáis el miedo. De forma abreviada en matemáticas se escribe como:

F.Bloch (físico alemán que en 1928 explicó el movimiento de los electrones en los cristales).

Esta teoría cuántica permitía entender procesos de la naturaleza que eran imposibles de comprender utilizando las leyes clásicas. Sin embargo, no daba una explicación satisfactoria, sino que proponía un conjunto de normas matemáticas y conceptos estadísticos que llegaban a funcionar haciendo predicciones que se verificaban una y otra vez.

Parecía que la naturaleza obedecía leyes estadísticas más que deterministas. Esto hizo que Einstein no apoyase la teoría cuántica diciendo su famosa frase: “God does not play dice” (Dios no juega a los dados). Para evaluar las consecuencias de todos estos nuevos descubrimientos y teorías en la concepción del mundo, se juntaron los científicos más relevantes en Copenhague .

Allí Bohr propuso que la naturaleza no es más que lo que tú determinas cuando haces una medida u observación. Hasta entonces nada existe. La realidad no sería más que un estado mezcla de todos sus estados posibles, y únicamente después de realizar una medida u observación puedes definirla. Schrödinger ilustró estos conceptos con su famosa paradoja del gato encerrado en una caja con una ampolla de veneno, tal que la ampolla puede estar rota con una probabilidad del 50% (con lo que el  gato estaría muerto) o entera con otro 50% (gato vivo).

Como la caja está cerrada no sabemos si el gato está vivo o muerto. Eso sería la interpretación clásica. La interpretación cuántica es que mientras tú no abras la caja el gato no estaría ni vivo ni muerto, sino vivo y muerto a la vez, en un estado mezcla definido por una función matemática que nos da la probabilidad de que esté en uno de los dos estados posibles. El mundo cuántico es definitivamente paradójico.

Sin embargo, esta teoría e interpretación de la naturaleza no tuvo una aceptación total: para muchos científicos como Einstein, el problema residía en nuestra incapacidad para determinar todos los factores que influyen en un proceso, y por tanto, si tuviésemos la información completa del estado inicial podríamos determinar posición y momento a la vez.

Así Einstein escribió: “La Luna tiene una posición definida la miremos o no la miremos, lo mismo debe ser válido para objetos de tamaño atómico, ya que no debe de haber distinción entre éstos y el mundo macroscópico. La observación no puede crear un elemento de realidad como una posición...”

A lo que Bohr le replicó: “Si Dios creó en el mundo un mecanismo perfecto, no necesitamos resolver infinitas ecuaciones diferenciales para entenderlo, sino que podemos usar los dados para explicarlo bien.”

La tecnología actual frente a la del futuro: Top-down frente a Bottom-up
Buscando un símil sencillo, el fundamento de la tecnología actual se asemeja al trabajo realizado por un escultor, el cual a partir de un bloque de material, y a base de cincelar, pulir y modelar, acaba obteniendo un objeto más pequeño con la forma deseada.


El trabajo con objetos tan pequeños entraña una gran dificultad, y de hecho fue algo prácticamente imposible hasta que se desarrollaron los microscopios de campo cercano (SPMs). Estas novedosas herramientas permiten no sólo la visualización, sino también la manipulación de objetos de dimensiones nanométricas de muy distinta naturaleza (ver capítulo 2). Estos microscopios son tan potentes que con ellos es posible llegar a ver átomos sobre una superficie y moverlos a nuestro antojo.

La necesidad de esta compleja instrumentación implica otra de las características fundamentales que acompañan a la nanociencia y nanotecnología: su interdisciplinariedad. Pero no sólo es la necesidad de combinar expertos en distintas técnicas y áreas del conocimiento lo que origina la interdisciplinaridad de la nanociencia.

Se trata también de que al reducir el tamaño de los objetos para estudiarlos, llega un momento en que todos están constituidos por átomos y moléculas. Y así, por ejemplo, para construir un dispositivo biosensor, el biólogo deberá saber de física cuántica, y el físico de biología si quieren que ese nuevo dispositivo funcione.

Así pues, el desarrollo de esta nueva ciencia requiere no sólo la utilización de técnicas de fabricación, visualización y caracterización muy precisas, sino también una aproximación multidisciplinar que reúna a físicos, químicos, biólogos, tecnólogos y teóricos trabajando juntos y utilizando elmismo lenguaje.

 De hecho, para todos ellos los átomos y moléculas son los ladrillos constituyentes de los objetos que estudian. La nanoescala es su punto de encuentro. En una primera impresión, pensar que podemos ser capaces de desarrollar toda la tecnología que nos rodea ensamblando molécula a molécula, partícula a partícula.

Por ejemplo, los aminoácidos, que son moléculas relativamente simples, se fueron agrupando entre sí de manera precisa hasta construir las proteínas. Por tanto, otro de los objetivos de la nanociencia y la nanotecnología es aprender de los mecanismos fundamentales que la vida ha desarrollado durante su evolución para intentar reproducirlos e incluso adaptarlos para la resolución de otros problemas que poco tienen que ver, en principio, con la biología.

EEE 1.7 ¿Qué es un interruptor?

En aquel momento su discurso no tuvo una gran repercusión. De hecho la palabra nanotecnología no aparece en dicho discurso. En realidad el término “nanotecnología” fue acuñado en 1974 por el profesor N. Taniguchi de la Universidad de Ciencia de Tokio en un artículo titulado "On the Basic Concept of ‘Nanotechnology’", que se presentó en una conferencia de la Sociedad Japonesa de Ingeniería de Precisión.

En dicho artículo se hablaba de la nanotecnología como la tecnología que nos permitirá separar, consolidar y deformar materiales átomo a átomo o molécula a molécula.

El discurso de Feynman “There is plenty of room at the bottom”
Richard Feynman nació en Nueva York en el año 1918. En 1939 se licenció en el Instituto de Tecnología de Massachusetts (MIT), obteniendo posteriormente un doctorado por la Universidad de Princeton.

En estos años de juventud es invitado a participar en el proyecto Manhattan que concluyó con la construcción de la primera bomba atómica.

 La mayor parte de su carrera científica la desarrolló en el Instituto de Tecnología de California en Pasadena, California (conocido internacionalmente como Caltech), donde trabajó en muy diversos temas, destacando los relacionados con la electrodinámica cuántica por los que fue galardonado con el Premio Nobel de Física en 1965. "Por su trabajo fundamental en electrodinámica cuántica, con sus profundas consecuencias para la física de las partículas elementales" (compartido con Julian Schwinger y Shin-Ichiro Tomonaga).

Además de su trabajo como científico fue un importante divulgador a través de libros (“¿Está Vd. de broma, Sr. Feynman?” ó “¿Qué te importa lo que otras personas piensen?”) y lecciones dedicadas a sus estudiantes (“Conferencias de Física de Feynman”). Precisamente fue un grupo de ellos quien quizá le dedicó el homenaje más sincero, al escalar la pared de la biblioteca de la Universidad y colgar un cartel con las palabras: “We love you, Dick!” poco después de su muerte en 1988.

En el año 1959, varios años antes de recibir el Premio Nobel, Richard Feynman pronunció en el Instituto de Tecnología de California en Pasadena una conferencia con el sugerente título “Hay mucho espacio al fondo” (”There is plenty of room at the bottom”) donde puso los pilares de lo que más tarde se conocería como nanotecnología.

En esta ya mítica conferencia, Feynman trató sobre cómo manipular, controlar y fabricar objetos de muy pequeñas dimensiones, abordando el problema desde una perspectiva absolutamente distinta a como se había hecho hasta el momento y abriendo todo un nuevo mundo de posibilidades.

Lo que en aquel momento pareció sólo un sueño surgido de la mente de un científico, el paso del tiempo ha demostrado que era posible convertirlo en una realidad.“Me gustaría describir un campo”, comenzaba Feynman en su discurso, “en el cual muy poco ha sido hecho hasta el momento, pero en el que, en principio, una gran cantidad de cosas pueden hacerse.

 Más aún, lo más importante es que podría tener un gran número de aplicaciones técnicas. De lo que quiero hablar es del problema de manipular y controlar objetos a muy pequeña escala”.

Los orígenes de la nanotecnología se remontan, pues, a hace aproximadamente medio siglo, y ya al comienzo de su conferencia, Feynman se hacía la siguiente reflexión: “En el año 2000, cuando se mire hacia atrás, todo el mundo se preguntará por qué hasta el año 1960 nadie empezó a moverse seriamente en esta dirección”. Esa dirección de la que hablaba Feynman se refería a la posibilidad de crear tecnología desde una nueva perspectiva basada en la manipulación y el control de objetos tan pequeños como los propios átomos.

“No me asusta considerar la pregunta final de si, próximamente, en el futuro, podremos colocar los átomos como queramos: ¡los verdaderos átomos, aquellos que están al fondo! Y ¿cuáles serían las propiedades de los materiales si pudiéramos verdaderamente colocarlos como quisiéramos?

No puedo saber exactamente qué pasaría, pero no tengo la menor duda de que si controlásemos la colocación de objetos a una pequeña escala, tendríamos acceso a un amplio rango de propiedades que los materiales pueden presentar y podríamos hacer una gran cantidad de cosas”.

 Esta idea que, en principio, podría parecer ciencia-ficción, venía avalada por el hecho de que, según Feynman, esta manipulación de los átomos no contradecía ninguna ley física, y por tanto, no había ningún motivo para que no pudiese llevarse a cabo. “Los principios de la física, tal y como yo los veo, no niegan la posibilidad de manipular las cosas átomo por átomo.

Al no violar ninguna ley, no hay motivo para que no pueda hacerse, y si en la práctica no se ha llevado a cabo todavía es porque somos demasiado grandes”, dijo Feynman.

 “En el mundo de lo muy, muy pequeño, muchas cosas nuevas podrán suceder, porque los átomos se comportan de manera distinta a como lo hacen los objetos a mayor escala, pues deben satisfacer las leyes de la mecánica cuántica. Si nos reducimos y comenzamos a juguetear con los átomos allá abajo, estaremos sometidos a unas leyes diferentes, y podremos hacer cosas diferentes.

 A nivel atómico, aparecen nuevos tipos de fuerzas, nuevas posibilidades, nuevos efectos”. Y todo esto, según Feynman, abriría nuevas posibilidades, por ejemplo, en el campo de la síntesis de moléculas por parte de los Nanociencia y Nanotecnología.

 “Resulta interesante que, en principio, es posible (a mi entender) que un físico sintetizase cualquier molécula que un químico le dibujase. Se le dan las órdenes y el físico sintetiza la molécula.

 Pero ¿cómo? Colocando los átomos allí donde el químico le ha indicado previamente. Y así creamos la sustancia. Si desarrollamos la capacidad de ver lo que estamos haciendo y de realizar cosas a nivel atómico, ayudaremos a resolver muchos problemas planteados por la química y la biología”. Aparece aquí, por tanto, una de las ideas básicas de la nanotecnología y que consiste en un cambio de estrategia a la hora de fabricar estructuras: el paso de una tradición top-down a un futuro bottom-up.


Fue en 1981 cuando dos investigadores, G. Binning y H. Rohrer, mientras trabajaban en los laboratorios de IBM en Zürich, inventaron el microscopio de efecto túnel. Estos investigadores ganaron el Premio Nobel en 1986, abriendo un mundo nuevo: la posibilidad de ver y manipular átomos y moléculas y permitiendo, por tanto, que muchas de las ideas de Feynman pudiesen ponerse en práctica.

 Otra idea básica que aparece siempre que se habla de nanotecnología, también mencionada por Feynman a lo largo de su discurso, es la necesidad de tomar la Naturaleza como modelo para fabricar objetos que funcionen de manera parecida: “Un sistema biológico puede llegar a ser extremadamente pequeño. La mayor parte de las células son diminutas, pero a la vez muy activas: producen numerosas sustancias, se mueven, se contonean, realizan todo tipo de cosas maravillosas y todo en una escala muy pequeña.

También son capaces de almacenar información. Consideremos la posibilidad de que nosotros también pudiésemos construir un objeto extremadamente pequeño capaz de realizar las funciones que nosotros deseemos

Por último, y con un cierto toque de humor, al finalizar el discurso, Feynman se pregunta: ¿Quién debe llevar a cabo las ideas propuestas y por qué debería hacerse? Y puesto que su respuesta es que debería ser (aparte de por motivos económicos) por pura diversión, acaba proponiendo un pequeño concurso entre universidades para ver quien puede reducir más el tamaño de, por ejemplo, las letras escritas en un objeto.

*La transcripción completa del discurso de Feynman la podemos encontrar en la siguiente dirección: http://www.zyvex.co/nanotech/feynman.html.

Aunque Feynman, en 1959, fue el primero en sugerir de manera clara esta posibilidad, hubo que esperar hasta 1986 para que sus ideas se concretaran. En ese año, E. Drexler publicó su libro “Engines of Creation” en el que describe cómo las nanomáquinas serán capaces de construir desde ordenadores hasta maquinaria pesada, ensamblando molécula a molécula, ladrillo a ladrillo.


¿Cómo llegar a ser nanotecnólog@?
Apasionante carrera científica
La nanotecnología es una disciplina interdisciplinar porque en ella convergen conocimientos de la química, la física, la biología, la ciencia de materiales y las ingenierías. Esta diversidad dificulta que se puedan adquirir tan variados conocimientos con una única licenciatura, por lo que no existe, como tal, la carrera universitaria de “nanotecnología”.

En realidad se puede llegar a trabajar en nanociencia y nanotecnología tras haber cursado estudios de química, física, biología o ingeniería, por lo que hay muchos caminos por los que llegar a ser nanotecnólog@. Tras cursar una licenciatura (o “grado”, como se denomina en los nuevos planes de estudio) científico-técnica se debe proseguir con estudios de maestría (master) y doctorado que orienten (“ensanchen”) la formación adquirida hacia la nanotecnología.

En la actualidad, varias universidades españolas ofrecen interesantes programas de maestría y doctorado directamente relacionados con las nanociencias y nanotecnologías, algunos de ellos con títulos tan sugerentes como “nanociencia”, “nanociencia y nanotecnología”, “física de la materia condensada y nanotecnología”, “materiales avanzados y nanotecnologías”, “nanociencia y nanotecnología molecular”, “ingeniería micro y nanoelectrónica”, etcétera.

En muchos casos, estos programas se desarrollan de forma coordinada entre varias universidades españolas, por lo que es fácil acceder a los mismos estudios en diferentes comunidades autónomas. El doctorado es un plan de estudios muy especial, ya que se cursa a la vez que el estudiante comienza a dar sus primeros pasos en el fascinante mundo de la investigación.

En realidad, el estudiante se convierte así en un investigador en formación. Dicha etapa suele culminar a los 27-28 años. No cabe duda alguna: los doctores son personas que poseen muchísima formación...

¡Más de 23 años adquiriendo conocimientos desde que se pone el pie por primera vez en una escuela de Educación Infantil! Tras el doctorado, el joven investigador suele adquirir conocimientos adicionales en estancias posdoctorales en centros de investigación extranjeros.

Cuando este largo proceso termina, el investigador puede ser contratado en organismos públicos de investigación, universidades, centros tecnológicos, fundaciones o empresas (dentro o fuera de España).

El día a día de un nanotecnólogo es similar al de los demás científicos: generar nuevos conocimientos (en el laboratorio o frente a su ordenador) y trasmitirlos a las siguientes generaciones de estudiantes, dirigir las tesis doctorales de futuros científicos, presentar proyectos con ideas novedosas e intentar conseguir fondos para llevarlos a cabo, publicar artículos para comunicar los nuevos hallazgos, recopilar conocimientos en libros especializados, solicitar patentes que permitan traducir estos conocimientos en productos y servicios, mostrar y debatir con otros colegas los resultados obtenidos en seminarios y conferencias a lo largo y ancho de todo el mundo, visitar otros laboratorios o grandes instalaciones (como telescopios, aceleradores de partículas, sincrotrones, buques oceanográficos, o bases polares), colaborar con otros grupos de investigación en universidades y empresas, transmitir el conocimiento a la sociedad mediante actividades de divulgación; organizar conferencias y talleres de trabajo, dirigir revistas científicas, asesorar a gobiernos o empresas, dirigir centros de investigación, etcétera.

¿Quién pensaba que el trabajo de investigador es aburrido? Hay que destacar, además, que la actividad científica es un magnífico punto de encuentro entre los países, las culturas y las personas. El trabajo de investigador es muy exigente ya que requiere una formación continua, así como grandes dosis de creatividad e inspiración, muy similares a las de un artista. Este esfuerzo es recompensado con algo muy importante: intensas emociones, satisfacción intelectual y la esperanza de contribuir a mejorar las condiciones de vida de las generaciones futuras.

¿Dónde se puede trabajar como nanotecnólog@?
La mayor parte de l@s nanotecnolog@s trabajará en universidades o en organismos y agencias públicas de investigación, en centros específicamente dedicados a la nanotecnología.

 Dado que la nanotecnología es interdisciplinar, estos centros deben poseer características muy particulares, con instalaciones muy variadas, desde “salas blancas” donde fabricar dispositivos nanoelectrónicos hasta laboratorios de biotecnología donde se diseñan biosensores y se prueban nuevos fármacos.

En los países más avanzados del mundo se ha iniciado la construcción de centros dedicados a la investigación en nanotecnología, y España no ha sido una excepción. En la actualidad existen varios centros dedicados a nanociencia y nanotecnología (algunos en fase de construcción o de diseño) ubicados en diversas comunidades autónomas (ver figura).

 En algunos casos, las instalaciones necesarias son tan costosas que necesitan la cooperación entre varios países, como ocurre en el caso del Laboratorio Internacional Ibérico de Nanotecnología que se ubicará en Braga (Portugal), proyecto conjunto entre Portugal y España, y cuya primera piedra ha sido colocada por los presidentes de ambos países en enero de 2008.



Nano-herramientas: el arte de ver, tocar, mover y escribir
2
Cada una de estos “donuts” es un molécula de porfirina. Esta imagen fue obtenida con un microscopio de efecto túnel (STM) operando en ultra alto vacío. 25 siglos después de que Demócrito hablase de los átomos, se han construido microscopios que nos permiten verlos, manipularlos y construir tecnología con ellos. Imagen cortesía de Celia Rogero, Centro de Astrobiología.

“Los átomos sí se pueden mover. Los de IBM escribieron las siglas de su compañía moviendo átomos de oro. También se han escrito mensajes de paz”.

En los años 80, muchos científicos pensaban que las posibles aplicaciones derivadas de la visión de Feynman o los motores moleculares imaginados por Drexler eran irrealizables por falta de herramientas capaces de manipular la materia a escala nanométrica.

Sin embargo, la aparición de una serie de técnicas permitió dar forma a esas ideas, descubriéndonos un nuevo mundo lleno de posibilidades: el nanomundo.

Imaginémonos sentados en la Luna con un telescopio que apunta a la Tierra. Imaginemos que queremos ver con este telescopio los tornillos de la Torre Eiffel en la pantalla de un ordenador.

La amplificación necesaria para lograr este objetivo es la misma que necesitaríamos si quisiésemos ver los átomos de un material. En este capítulo veremos cómo, gracias a la física cuántica, podemos no sólo ver los tornillos de la torre Eiffel desde la Luna, sino también apretarlos o aflojarlos. En definitiva, actuar sobre ellos.

Microscopios para ver
A lo largo de la historia de la Humanida de siempre hemos intentado desarrollar instrumentos que nos permitiesen observar objetos cada vez más pequeños. Así, por ejemplo, la invención del primer microscopio de óptica compuesta, desarrollado por Hans y Zacarias Janssen en Holanda a finales del siglo XVI, supuso no sólo un gran avance para la ciencia, sino también una enorme satisfacción para la curiosidad humana.

El concepto más común que cualquiera de nosotros tiene de un microscopio es el de un instrumento compuesto por una serie de lentes y basado en la utilización de la luz, que nos permite obtener imágenes aumentadas de objetos que, debido a su pequeño tamaño, habría sido imposible observar a simple vista.

De hecho, el vocablo “microscopio” proviene de dos voces griegas: micro, pequeño y skopein, ver, examinar. Ahora bien, la pregunta fundamental al hablar de este tipo de dispositivos es siempre la misma: ¿cuál es el objeto más pequeño que es posible observar con ellos? La respuesta a esta pregunta ha sido diferente a lo largo de los últimos cuatro siglos. A medida que disminuía el tamaño de los objetos que se podían observar, se tenía acceso a un nuevo mundo ¿somos capaces de ver una célula?, ¿o quizá una molécula?, ¿o incluso un átomo? La resolución de los microscopios ópticos está limitada por la longitud de onda de la luz utilizada y por las aberraciones ópticas (defectos en las lentes).

Suponiendo que existieran lentes perfectas, libres de defectos, las leyes de la óptica nos dicen que para poder distinguir (“resolver”) dos puntos, éstos deben de estar separados por una distancia mínima igual a la mitad de la longitud de onda que utilizamos para iluminar la muestra.

 Teniendo en cuenta las aberraciones en las lentes, la resolución típica que se puede obtener es del orden de 0.5 μm, o 500 nm. Por tanto, a pesar del enorme avance que supuso la invención del microscopio óptico, fundamentalmente en el área de biología como veremos en el capítulo 5, aún tuvieron que pasar varios siglos antes de que se empezara a soñar con tener la instrumentación necesaria para poder “ver” moléculas y átomos.

El siguiente gran paso en la evolución de la microscopía tuvo lugar en el siglo XX y se basó en la sustitución de la luz visible para iluminar los objetos en estudio por un haz de electrones. Ya hemos visto en el capítulo anterior que las partículas manifiestan también una naturaleza ondulatoria.

Si la longitud de onda asociada a dichas partículas es muy pequeña, podemos pensar en usarlas para “ver” objetos de aproximadamente el tamaño de dicha longitud de onda. Los electrones pueden tener longitudes de onda pequeñísimas y son buenos candidatos para ser usados como sonda en un microscopio.

Los primeros microscopios que utilizaron electrones como sonda se denominaron por ello microscopios electrónicos. Este tipo de microscopios comenzaron a ser desarrollados por E. Ruska y M. Knoll a principios de la década de 1930 y supusieron un gran avance para la ciencia y la tecnología.

Al ser la longitud de onda de los electrones mucho menor que la de la luz visible, con estos microscopios se pueden observar fácilmente objetos del orden de pocos nm, es decir, es posible obtener imágenes de estructuras unas 100 veces más pequeñas que las observables con un microscopio óptico.

Dentro de la familia de los microscopios electrónicos, existen dos tipos fundamentales: el microscopio electrónico de transmisión (Transmision Electron Microscopy, TEM) y el microscopio electrónico de barrido (Scanning Electron Microscopy, SEM). En ambos instrumentos la sonda es un haz de electrones dirigido y focalizado sobre la muestra por una serie de “lentes” que en este caso no son fragmentos de vidrio pulidos, sino campos electromagnéticos. La instrumentación necesaria en este tipo de equipos es compleja debido fundamentalmente a dos motivos.

Por un lado, los electrones deben ser acelerados mediante altos voltajes, requiriendo potentes fuentes de alimentación. Por otro, para evitar que en su camino hacia la muestra sean desviados por las moléculas del aire, es necesario que el sistema se encuentre a muy baja presión. Esto implica el uso de bombas de vacío, complicando en gran medida el manejo experimental. En cuanto al tipo de muestras que se pueden visualizar existen dos limitaciones fundamentales: la necesidad de que el objeto que se estudia sea metálico (en caso de no ser así, es posible proceder a su previa metalización) y el hecho de que deba resistir la radiación del haz de electrones sin deteriorarse.

La microscopia electrónica ha contribuido de forma decisiva al desarrollo de la física, la biología y la ciencia de materiales a lo largo del siglo XX. Se puede decir que no existe centro de investigación avanzado que no posea esta poderosa herramienta. E. Ruska recibió en 1986 el Premio Nobel de Física, compartido con los investigadores H. Rohrer y G. Binning, de los que vamos a hablar a continuación en este capítulo.

Microscopios de campo cercano: no sólo los ojos, sino también las manos

Con la aparición de los llamados microscopios de campo cercano (del inglés Scanning Probe Microscopy, SPM), se demostró que el sueño de Feynman ( ver capítulo 1) era posible.

Se acababa de inventar justo lo que la nanotecnología necesitaba para despegar: una nueva herramienta capaz no sólo de ‘ver’ la materia a escala nanométrica, sino también de interaccionar con ella. Dicho con otras palabras, la invención de este nuevo tipo de microscopios acababa de dotar a la nanotecnología no sólo de “ojos”, sino también de unas útiles “manos”.

Los microscopios de campo cercano constituyen una familia de instrumentos que permiten estudiar las propiedades de la superficie de diversos materiales en una escala comprendida entre la micra (1000 nm) y las distancias atómicas (0.1 nm). A pesar de su elevado poder resolutivo, estos microscopios son extremadamente pequeños.

En este tipo de microscopios la sonda consiste en una punta afiladísima, con un radio final de unos pocos nanómetros. Al aproximar la sonda a la superficie de la muestra es posible poner de manifiesto diversos tipos de interacciones de naturaleza cuántica, que surgen como consecuencia de la enorme proximidad a la que se encuentran ambos materiales.

Dado que la magnitud de la interacción está directamente relacionada con la distancia punta-muestra, es posible generar un mapa de la topografía de la superficie al ir moviendo la sonda sobre la muestra de una manera precisa y controlada.

Cada vez que debajo de la punta se encuentre una “protuberancia” (un átomo, una molécula) o una “depresión” (un agujero presente en la superficie) se originará un cambio en la distancia punta-muestra, y por tanto una variación de la magnitud de la interacción cuántica.

 Para corregir esta variación en la distancia puntamuestra, se desplaza la punta en la proporción adecuada para que la altura sea constante. Este desplazamiento se consigue gracias a unos sistemas de posicionamiento muy precisos denominados piezoeléctricos.

Los materiales piezoeléctricos poseen, entre otras, la propiedad de deformarse cuando se les aplica una diferencia de potencial. Mediante la adecuada combinación de potenciales a una barrita de material piezoeléctrico podemos hacer que ésta se deforme y pueda mover algún objeto que lleve pegado en su extremo (¡como la punta del SPM!). Los piezoeléctricos son los elementos clave que nos permiten acercarnos y movernos por las superficies con grandísima precisión.

De la familia de microscopios de campo cercano, el Microscopio de Efecto Túnel (Scanning Tunneling Microscopy, STM), inventado en 1981 por dos científicos de la compañía IBM llamados G. Binning y H. Rohrer, fue el primero en ser usado para visualizar superficies a nivel atómico.

En este tipo de microscopio, la señal que recoge la punta o sonda está relacionada con una propiedad cuántica de la materia: el llamado efecto túnel. Este efecto se manifiesta como una pequeña corriente eléctrica

La “magia” de la física cuántica para construir microscopios
La teoría cuántica nos describe la naturaleza a escala atómica de una manera un tanto incomprensible para nuestra lógica cotidiana. En nuestro mundo las cosas están o no están, son o no son. Y esta es la única cuestión.

Sin embargo, en el mundo atómico el mismo objeto puede ser o no ser, estar o no estar, dependiendo de cómo lo observes. Y además, cuando lo observas puedes ser tú el causante de lo que estás viendo.

Esta idea, que queda recogida en el principio de dualidad onda-corpúsculo, implica que, por ejemplo, un electrón puede ser tanto un corpúsculo o partícula (idea que nos parece evidente) como una onda (cosa ya un poco más difícil de aceptar intuitivamente).

Pongamos el siguiente ejemplo: unos chicos de mi pueblo juegan al frontón en la pared de la iglesia. Si tiran alto, la pelota se les va al tejado, y si no, rebota en la pared.

Este efecto cuántico se describió teóricamente en 1936 y viene a decir que una partícula con una determinada energía tiene una probabilidad no nula de atravesar una barrera de potencial cuya altura sea superior a la energía de la partícula.

 Esta probabilidad se puede calcular matemáticamente, conociendo la anchura y altura de la barrera y la energía y masa de la partícula. En este punto, la pregunta que a todos nos viene a la cabeza es la siguiente: ¿Cómo a partir de una formulación tan abstracta se puede construir un microscopio?

Imaginemos ahora una punta metálica cuyo extremo está situado muy cerca de la superficie de un material. Esta punta, si la miramos a nivel atómico, normalmente tendrá un átomo más cercano que los demás a la superficie. Hagamos el siguiente experimento: pongamos un pequeño voltaje entre ambas y veamos la corriente que circula. Si la punta no toca la muestra la corriente es cero.

Es un circuito abierto. Sin embargo, si la punta toca la superficie se establecerá una corriente eléctrica, cuyo valor vendrá fijado por la famosa ley de Ohm. Hasta aquí nos encontramos realizando un experimento de tecnología básico. Supongamos ahora que nos situamos a una distancia tal que la punta está cerca de la muestra pero no la toca, digamos a 0.4 nm.

En principio, la ley de Ohm nos dirá que el circuito está abierto y por tanto no debería circular ninguna corriente eléctrica entre ambas. Pero claro, la ley de Ohm no tiene en cuenta la naturaleza cuántica de la materia:

para esta ley la corriente o bien pasa o no pasa. En realidad sí que circulará una corriente. La llamada corriente túnel que tiene su origen en todos los electrones que pasan de la punta a la superficie mediante el efecto túnel que acabamos de explicar. Volviendo al símil del frontón, la separación entre la punta y la muestra es la anchura de la barrera, el grosor del muro, y la pelota es un electrón.

Si aplicamos la fórmula de la probabilidad de paso por la barrera veremos que puede circular una pequeñísima corriente, la llamada corriente túnel cuyo valor depende exponencialmente de la separación entre la punta y la superficie. Dicha corriente, captada por una punta afiladísima, situada a décimas de nanómetros de la muestra, proviene de un solo átomo de la superficie.

Esta corriente túnel es la que se usa como “altímetro” para pasearse por la superficie y generar de este modo una imagen en un STM. Así, al ir moviendo la punta sobre la muestra es posible medir la corriente eléctrica sobre cada punto de la superficie y, por tanto, generar un mapa que se puede correlacionar fácilmente con los átomos en superficie de esa muestra.

El AFM funciona de modo similar, pero lo que mide es la fuerza atómica entre una punta que está en el extremo de una micro-palanca y la superficie. Si la punta está cerca, estas fuerzas son repulsivas y tienen su origen en la repulsión entre las nubes electrónicas entre los átomos de la superficie y la punta, dependiendo enormemente de la distancia.

Si utilizamos de nuevo esa fuerza como altímetro tendremos de nuevo una descripción de la superficie a nivel atómico. La forma de medir la magnitud de las fuerzas con un AFM es extraordinariamente sencilla. Imaginemos una palanca muy pequeña, similar a un micro-trampolín, que posee un extremo sujeto a una estructura y el otro libre de forma que este último puede oscilar.

Dicha palanca está recubierta de metal por su parte superior para que pueda reflejar la luz. En la parte inferior del extremo libre de la palanca se ubica una pequeña punta que se usa como sonda. Si la punta es atraída por la superficie que está debajo de ella, el trampolín se comba hacia abajo.

Si la punta es repelida se comba hacia arriba. Si mientras todo esto ocurre hacemos incidir un rayo láser sobre la parte superior del extremo del trampolín veremos que el haz reflejado en la superficie de la palanca se mueve hacia un lado o hacia otro según las fuerzas sean atractivas o repulsivas. Esta deflexión de la micropalanca es fácil de medir mediante fotodiodos.

Si conseguimos que la altura de vuelo sobre la superficie (separación punta-muestra) sea constante, la fuerza es constante y por tanto hemos dibujado un perfil de la superficie. Estos procesos, aunque puedan parecer complejos, hacen que este tipo de microscopios sean pequeños, manejables y potentes comparados con los microscopios electrónicos. ojos.

La importancia del STM fue tal que Binning y Rohrer fueron galardonados con el premio Nobel en 1986. Desde su invención hasta hoy día, está técnica no ha dejado de evolucionar, llegando a convertirse en una herramienta imprescindible en el mundo de la microscopía.

La enorme mejora experimentada por el STM en el curso de muy pocos años queda reflejada claramente en la figura 2.6 donde se pueden comparar tres imágenes de una misma superficie obtenidas en 1988, 1992 y 2007.

A pesar de que la aparición del STM supuso una revolución en el mundo de la microscopía debido a su enorme aplicabilidad, presenta una limitación fundamental en lo referente al tipo de muestras que permite estudiar.

Puesto que la propiedad cuántica en que se basa la medida es la aparición de una corriente eléctrica (“la corriente túnel”) entre la punta y la muestra, es necesario que ambas sean conductoras de la electricidad.

 Hay, por tanto, una enorme cantidad de muestras aislantes o poco conductoras (por ejemplo, las biológicas) que no podrán ser visualizadas por medio de esta técnica. Este problema quedó resuelto en 1989, año en el que G. Binning desarrolló la herramienta idónea para el estudio de materiales no conductores: el Microscopio de Fuerzas Atómicas (Atomic Force Microscope, AFM).

La base de funcionamiento de este microscopio es la utilización como magnitud de interacción de las fuerzas que aparecen al acercarse la sonda (una punta cuya terminación tiene aproximadamente 20 nm de diámetro) a la muestra objeto de estudio. A grandes distancias no se establece ninguna fuerza entre la sonda y la muestra.

Al ir acercándose la punta y la muestra, se originan unas pequeñas fuerzas atractivas, que según se vaya acortando la distancia se transformarán en importantes fuerzas repulsivas. Por tanto, la magnitud de la fuerza que se establece entre punta y muestra depende fuertemente de la distancia.

Puesto que la aparición de estas fuerzas ocurre por el mero hecho de la cercanía entre las nubes electrónicas de los dos materiales involucrados (la punta y la muestra), el AFM es una técnica que puede aplicarse al estudio de una gran diversidad de muestras, siendo absolutamente independiente de si éstas son conductoras de la electricidad o no.

El problema principal que presenta el uso de las diferentes microscopías de campo cercano reside en la punta, es decir, en la sonda que “se pasea” sobre la superficie recogiendo la señal. La resolución del microscopio depende del tamaño de la punta, y por tanto sólo podremos llegar a ver átomos cuando la punta acabe en un solo átomo. La resolución más extrema, necesaria para “ver” átomos, se obtiene utilizando sistemas de vacío, en los que se pueden preparar superficies limpias y ordenadas a nivel atómico.

Al ver una de estas máquinas de ultra alto vacío, en el interior de la cual la presión es del orden 10-10 mbars, es decir, diez billones de veces inferior a la presión atmosférica y similar a la que se encuentra en el espacio interplanetario. Sólo en estas condiciones es posible ver átomos con precisión y estudiarlos.

El hecho de introducir el microscopio dentro de estas máquinas complica la instrumentación, a ella se añaden varios problemas fundamentales. El primero son las vibraciones mecánicas.

Ver un átomo significa que la punta debe posicionarse sobre la muestra con un precisión superior a 0.01 nm. El suelo sobre el que pisamos ahora mismo está vibrando, debido a los coches que pasan cerca, a los motores de los equipos de aire acondicionado, los ascensores o simplemente a los movimientos de la propia estructura del edificio.

Así, para poner en marcha un experimento de estas características, es necesario disponer de sistemas antivibratorios muy potentes.

Otro problema importante proviene de que, al ser imprescindible que la punta del STM acabe en un solo átomo y sea estable, es necesario afilarla, limpiarla o incluso cambiarla varias veces y todo ello durante una misma sesión de medida. Por último, otra limitación es la estabilidad de la propia muestra en estudio, pues los átomos que la forman se mueven a temperatura ambiente debido a la agitación térmica.

Esto es especialmente importante cuando queremos situarnos encima de un átomo preciso, por ejemplo para manipularlo. En el caso de que no nos haga falta “ver átomos”, sino que lo que queramos visualizar sean moléculas u otros objetos nanométricos de mayor tamaño, no necesitamos imponer unas condiciones tan drásticas (sistema de vacío o punta acabada en un solo átomo) y la manipulación experimental resulta mucho más sencilla. Este es el caso del AFM.

A modo de resumen podemos, por tanto, decir que la aparición de estos dos tipos de microscopios de campo cercano (STM y AFM) ha supuesto una revolución en el mundo de la microscopía debido a su alta resolución y a que producen verdaderas imágenes tridimensionales (3D) de los objetos estudiados.

Si a esto añadimos que son técnicas no destructivas y que operan en diversos ambientes (en vacío, al aire o en líquidos) es fácil comprender la gran evolución que han experimentado estas técnicas desde su invención.


Hemos descrito los dos principales microscopios pertenecientes a la familia SPM, pero existen otros muchos tipos, como, por ejemplo, el Microscopio de Fuerzas Magnéticas (MFM) o el Microscopio de Campo Cercano, denominado SNOM. EL MFM se emplea para visualizar moléculas o regiones con propiedades magnéticas, mientras que el SNOM permite observar luz proveniente de una sola molécula y estudiar así sus propiedades ópticas.

Manipulación de la materia mediante el uso de microscopios

Ya en los años 90, un científico de IBM en EEUU comprobó que era posible escribir con átomos. Este científico, D. Eigler, logró colocar átomos de xenón sobre una superficie de níquel  escribiendo con ellos las letras del logo de su empresa (IBM), abriendo así las puertas al mundo soñado por Feynman casi medio siglo antes. Para lograrlo, “pinchaba” los átomos con la punta de un microscopio STM y se los llevaba de un sitio a otro.

En realidad, los átomos quedaban unidos a la punta mediante atracción electrostática. Aplicando un determinado voltaje a la punta conseguía que los átomos se le quedaran adheridos a la misma, como un trocito de papel se queda pegado en un peine que previamente hemos frotado contra la manga de un jersey.

Este grupo de investigación ha seguido trabajando y creando estructuras atómicas y moleculares, como puede verse en su página web:



consta de únicamente 10 moléculas. para colocar estas 10 moléculas se necesitaron aproximadamente tres horas. Si a esto le añadimos que la temperatura necesaria para llevar a cabo el experimento es de 4K, es decir de -269 ºC, la dificultad del proceso resulta evidente.

Escribir con átomos mediante STM es un paso muy importante, pero difícil de utilizar tecnológicamente. En este sentido, es el AFM quien ha tomado el relevo en la manipulación de nanoestructuras puesto que se trata de una herramienta mucho más versátil y, como ya hemos dicho, aunque se sacrifica la resolución atómica se gana en facilidad de manejo.

 Para escribir mediante el uso del AFM no vamos a colocar átomos o moléculas secuencialmente, sino que vamos a recurrir a otros mecanismos más sencillos. De entre todos los que pueden utilizarse actualmente, los basados en fenómenos químicos de oxidación de ciertas zonas de la propia superficie sobre la que se va a “escribir” son los más prometedores, como se puede comprobar en el ejemplo siguiente.

 Las diez primeras líneas de “El Quijote”, que aparecen en la figura 2.11, se han escrito sobre una placa de silicio de dimensiones 2 μm x 4 μm. Para lograr “escribir” las letras que componen el texto (a tamaño nanométrico, no lo olvidemos) se genera un campo eléctrico entre el silicio y la punta del microscopio.

Así se consigue que el vapor de agua ambiental se condense justo entre la superficie y la punta dando lugar a un menisco de unos 10 nm de grosor que actuará como un “bolígrafo”, pues al aplicar un segundo voltaje se consigue oxidar el silicio en esa zona, originándose una marca de estas dimensiones. La figura 2.12 ilustra este proceso.

Si repetimos este proceso, mientras desplazamos la punta sobre la superficie de silicio siguiendo una determinada trayectoria definida previamente, iremos conformando las diferentes letras que constituyen el texto. Gracias al cambio de estrategia respecto a lo que se hacía por STM, hemos conseguido evitar un paso importante en el proceso de “escribir” con átomos.

Ya no es necesario ir a cogerlos de otro sitio y posicionarlos sobre la superficie (como vimos en el caso del emoticono formado por moléculas de CO), sino que aprovechamos los propios átomos que forman parte del material, e induciendo un cambio en algunos de ellos (por ejemplo, oxidándolos) logramos diferenciarlos del resto y que se “vea” el motivo escrito.

Ahora poseemos sofisticadas herramientas que permiten cada vez escribir con motivos más pequeños. La punta de un SPM permite crear verdaderas litografías y no sólo oxidando la superficie, sino también mediante otros mecanismos mecánicos como, por ejemplo, empujando moléculas que se encuentran adsorbidas hasta tumbarlas sobre una superficie o cortando cadenas de ADN.

Así, la punta de un SPM cumple una doble función: es la responsable tanto de generar las imágenes de la superficie como de interaccionar con las moléculas, ganando tanto en eficacia como en precisión a la hora de manipular el objeto. Mediante esta estrategia es posible utilizar los microscopios SPM y particularmente el AFM para construir patrones sobre una superficie.

Recientemente, se han publicado varios trabajos en los que se propone el uso de puntas modificadas de AFM para depositar material sobre la superficie. Este tipo de procesos se conocen con el nombre de dip-pen nanolitography y esencialmente consisten en utilizar la punta de un microscopio como si de una pluma estilográfica se tratase, para escribir con ella motivos moleculares.

El material orgánico pasa de la punta a la muestra mediante procesos de difusión y es guiado por la diferente afinidad química. Se pueden utilizar hasta decenas de tintas (moléculas) diferentes sobre una misma superficie. Con esta técnica es posible generar puntos moleculares de tamaño nanométrico, lo que supone un fuerte avance en la capacidad de integración de circuitos electrónicos.

Otras técnicas litográficas

La más prometedora, debido a la gran cantidad de substratos que pueden utilizarse y a que no necesita utilizar mascarillas o resinas, es la llamada abrasión iónica (o FIB, del inglés: “Focused Ion Beam”). Con esta técnica se pueden construir objetos muy diversos mediante la erosión controlada de una superficie mediante haces nanométricos de iones, generalmente de galio.

Se puede emplear también para depositar materiales con formas determinadas, unos encima de otros, alcanzándose resoluciones de hasta unos 30 nm. Puesto que estas técnicas trabajan con iones y electrones, necesitan equipos de vacío y normalmente se acoplan a microscopios electrónicos tipo SEM, de manera que el operario pueda ir viendo las estructuras a medida que las dibuja.

Por otro lado, las técnicas de abrasión electrónica se basan en hacer incidir un haz de electrones sobre una superficie y son las más utilizadas por las grandes multinacionales microelectrónicas para fabricar los circuitos impresos

EEE 2.2 Sistemas nanoelectromecánicos (NEMS)
Los sistemas “nanoelectromecánicos (NEMS, del término inglés “nanoelectromechanical systems”) suponen un paso previo a los motores moleculares. Realmente podemos definirlos como piezas o engranajes cuyo tamaño mínimo es de aproximadamente 100 nm.

Estos dispositivos suelen fabricarse mediante técnicas de ataque químico, eléctrico o fotónico sobre un apilamiento de diferentes materiales, como polímeros o silicio. De especial relevancia son los llamados dispositivos micromecánicos, ya que pueden ser integrados con las tecnologías actuales basadas en silicio.

A la hora de diseñar estos dispositivos, el “nano-ingeniero” tiene que tener en cuenta que para ciertos tamaños los efectos llamados “de superficie” empiezan a ser importantes. Así, por ejemplo, la presión, la inercia térmica o el potencial electrostático local son algunas de las magnitudes que no es posible escalar directamente respecto a una pieza del mismo material con la misma forma pero con dimensiones cercanas al centímetro

ALBA, el sincrotrón español: una herramienta kilométrica para estudiar objetos nanométricos
Todos hemos observado alguna vez las ondas que avanzan sobre la superficie del agua de un lago en el que hemos tirado una piedra. En realidad, el agua no avanza. Tan sólo sube y baja, oscila, en una secuencia de crestas y valles.
                                              
A la luz le sucede algo parecido. No es más que una onda (o radiación) electromagnética que se propaga a través del espacio. Es decir, una secuencia periódica de presencia y ausencia de campo eléctrico y magnético.

Eso sí, la luz se desplaza muy rápidamente, a 300.000 kilómetros por segundo. Toda onda (la que se forma en el agua, el sonido o la luz) se caracteriza por una longitud: la que separa dos valles o dos crestas consecutivas. Esta distancia se conoce por el nombre de ‘longitud de onda’. Al igual que cuando un sonido se hace demasiado agudo (20 KHz) o demasiado grave (20 Hz) dejamos de oírlo, el ojo humano tan sólo es sensible a determinadas longitudes de onda de la luz.

Es la parte del espectro electromagnético llamada “luz visible”, que se extiende entre el ultravioleta y el infrarrojo (entre 400 y 750 nm). Cuando un prisma separa la radiación visible a nuestros ojos en sus colores, en realidad separa toda la radiación electromagnética según su energía. Así hablamos del espectro de radiación electromagnética que abarca desde ondas de radio a rayos gamma, según se aprecia en la figura.

De la misma manera que la luz visible nos revela los colores y la forma de los objetos que observamos, el resto de la radiación electromagnética puede usarse para conocer diferentes propiedades de la materia.

Los rayos X son especialmente útiles en el nanomundo, ya que tienen una longitud de onda comparable a las distancias interatómicas, y penetran en la materia. Químicos, biólogos, físicos, médicos, arqueólogos y hasta restauradores de arte exponen muestras de los materiales que estudian a los rayos X para descifrar así algunas de las propiedades de la materia que no se podrían conocer de otra manera.

 La aplicación más conocida es la radiografía, en la que los rayos X se usan para formar imágenes de objetos que están sepultados bajo otros materiales, como ocurre con nuestros huesos, que están ocultos tras la materia blanda de nuestros tejidos. Se hace pasar un haz a través del tejido a estudiar, y se detectan las diferencias en su absorción.

Los tejidos blandos, formados en su mayor parte por agua, son transparentes a los rayos X, proporcionando regiones brillantes. En cambio, los tejidos duros, más ricos en elementos pesados, absorben más la radiación y por tanto dan lugar a zonas oscuras, en las que la intensidad transmitida es menor.

 Normalmente, las radiografías se muestran en negativo para que se aprecien mejor los detalles. Así, los rayos X son muy útiles, pero el problema para su uso viene del hecho de que producirlos no es tarea fácil. Los aparatos usados en las consultas de dentistas y médicos, junto con algunos otros instrumentos, producen rayos X de baja intensidad.

Aunque esto es suficiente para una radiografía no lo es para muchas otras aplicaciones en las que se necesita disponer de mayor intensidad. Para producir rayos X en serio se necesita lo que se llama un sincrotrón. El sincrotrón puede considerarse una fuente de luz enorme y sofisticada.

Enorme porque requiere de un acelerador de electrones de casi un kilómetro de circunferencia. Sofisticada porque a través de una compleja instrumentación puede generar luz de cualquier longitud de onda dentro de un amplio rango, desde el infrarrojo hasta los rayos gamma con alta intensidad. Aunque es así, la mayoría de estas máquinas se centran en la producción de rayos X.

Éste es el caso también de ALBA, el primer sincrotrón español actualmente en construcción en Cerdanyola del Vallès, cerca de Barcelona. La diferencia con los grandes aceleradores, como los del CERN (Organisation Européenne pour la Recherche Nucléaire) en Ginebra, es que éstos hacen colisionar las partículas para conocer su estructura interna, mientras que los sincrotrones intentan que los electrones giren indefinidamente, o por lo menos, el mayor tiempo posible.

El motivo es que las partículas cargadas, como los electrones, al describir trayectorias circulares emiten radiación electromagnética, que puede ser utilizada por científicos de muy diversas áreas para realizar experimentos.

 Así, un sincrotrón es una gran instalación, que consiste en un acelerador capaz de producir radiación electromagnética (denominada luz de sincrotrón) de alta intensidad, con longitudes de onda que comprenden desde la radiación infrarroja hasta los rayos gamma.

Para ello, electrones son acelerados hasta velocidades cercanas a las de la luz en un anillo circular de unos 800-1000 m de longitud, que se encuentra en ultra alto vacío (presiones en el interior del orden de 10-10 mbar). Alrededor del anillo en el que giran los electrones, se sitúan diferentes laboratorios llamados “líneas de luz”.

Por varias aperturas del anillo emerge la radiación sincrotrón que entra en cada una de dichas líneas de luz. Cada línea posee un sofisticado equipamiento y está especializada en una determinada técnica experimental aplicada a un área del conocimiento. Pero ¿qué podemos hacer ahora con la radiación que producimos?, ¿para qué sirve tener encerradas a unas 200 personas altamente cualificadas trabajando para que los electrones no paren de girar? Para responder a esta pregunta vamos a darnos un paseo imaginario por una de estas instalaciones. En este paseo nos encontramos laboratorios de lo más variopinto. Así, podríamos encontrarnos con científicos que utilizan los rayos X para tomar “fotos” en intervalos de nanosegundos de lo que ocurre en una reacción química para saber cómo funcionan los catalizadores de los coches y poder así mejorarlos. Junto a este grupo de investigación podemos encontrar otros científicos que estudian la materia en condiciones especiales, por ejemplo dentro de una celda de diamante, donde un material puede someterse a presiones muy altas (de millones de veces la presión atmosférica) similares a las que se alcanzan en el centro de la Tierra. Esto les permite estudiar el estado de la materia a 5500 ºC y 3.6 millones de bars para intentar conocer lo que sucede en el centro de nuestro planeta sin tener que viajar a su interior. Julio Verne no estaría muy contento... Junto a estos geólogos encontramos médicos que realizan angiografías (radiografías de las arterias con elevada precisión y alta resolución) de manera que logran localizar trombos y estudiar la evolución de los mismos frente a distintos fármacos. También podemos encontrarnos con un grupo de biólogos moleculares que buscan la posición en el espacio, las coordenadas, de cada una de las moléculas que forman un pequeño virus o una proteína: el primer paso hacia la elaboración de fármacos específicos.


Así pues, el sincrotrón es una gran instalación que produce rayos X para apoyar a toda la comunidad científica y tecnológica de distintas áreas del conocimiento, y en particular, y cada vez más, a las derivadas de la nanociencia y la nanotecnología.

En ALBA, el primer sincrotrón que habrá en España y que estará operativo en el año 2011, ya se están construyendo las siete primeras líneas de luz, o laboratorios, dedicadas a “ver y conocer” la materia a escala nanométrica.













Nano-materiales: nuevos materiales para un nuevo siglo
3
 “El Fullereno tiene unidos todos los átomos de C entre sí formando una pelota”.
 “Los materiales del futuro permitirán construir robots cuyo motor será muy resistente y podrá funcionar a máxima potencia, llegando a velocidades cercanas a la de la luz para poder recorrer el universo”.

Disponer de nuevos y mejores materiales ha sido siempre una necesidad de las sociedades a lo largo de la historia de la Humanidad. El hombre de la Edad de Bronce fue superado por el de la Edad de Hierro, y los romanos ganaron muchas batallas gracias a la fortaleza de sus espadas. El acero permitió construcciones más resistentes y seguras, así como construir nuevas máquinas que posibilitaron la Revolución Industrial. Los aceros pesados se han sustituido por aluminio y polímeros en los automóviles. Las fifibras sintéticas han remplazado a los tejidos naturales en multitud de aplicaciones. Los plásticos mejoraron al cartón; y así sucesivamente hasta hoy. Pero ¿cuáles serán los nuevos materiales para este siglo que comienza?

En 1902 se construyó este edificio llamado Flatiron en Nueva York. Su altura de 80 m y forma tan atrevida fue posible gracias a que en su estructura interna se sustituyó el hierro por el acero. ¿Y si sustituyésemos el acero por otro material más ligero y más resistente?

En un mundo de carbono
El carbono es tal vez el átomo más importante en nuestro mundo. Aunque sólo represente el 1% de toda la materia conocida del universo y únicamente el 0.3 % de la corteza terrestre, es el componente principal de los seres vivos (20% en masa). Toda la química que da lugar a la vida está basada en el carbono y se conoce como química orgánica. Pero, ¿qué hace del carbono un elemento tan especial? El átomo de carbono presenta unas propiedades únicas, siendo su química mucho más extensa que la del resto de los elementos de la tabla periódica.

Además del enorme número de compuestos distintos que existen en la naturaleza resultantes de su combinación mediante enlaces covalentes con unos pocos elementos más, resulta curioso cómo un mismo átomo puede dar lugar a materiales tan distintos. Basta pensar, por ejemplo, en las diferentes propiedades que presentan un diamante, grafito (como el que forma la mina de un lápiz) o un trozo de carbón amorfo. Tres materiales iguales en cuanto a composición, ya que todos están formados exclusivamente por átomos de carbono, pero absolutamente distintos en cuánto a su apariencia o características. ¡Y si no, probad a regalar un trozo de carbón de quemar engarzado en un anillo como regalo de cumpleaños! Para entender el por qué de todas estas particularidades, es necesario comenzar considerando la configuración electrónica del átomo de carbono.

Recordemos que este elemento posee 6 electrones que, en principio, se distribuirían en los diferentes orbitales atómicos (niveles de energía permitidos a los electrones en su movimiento alrededor del núcleo) de la siguiente manera: 1s2 2s2 2p2. Ahora bien, los cuatro orbitales del último nivel (los llamados orbitales de valencia) no permanecen tal cual sino que pueden “mezclarse” entre ellos formando unos nuevos orbitales llamados orbitales híbridos. Dependiendo de cómo lo hagan, dan lugar a diferentes tipos de orbitales en los que se situarán los cuatro electrones de valencia, que son los que participan en el enlace químico para formar los diferentes compuestos.

 Los tipos de hibridación posibles para el carbono son los llamados sp3, sp2 o sp. En la tabla siguiente puede verse un resumen de sus características. Por tanto, la clave en el caso que nos ocupa reside en que, a pesar de que por ejemplo, diamante y grafito están constituidos exclusivamente por el mismo elemento, la forma en que se disponen sus átomos en el espacio es absolutamente distinta y está íntimamente ligada al tipo de hibridación que se haya producido entre sus orbitales.

Así, en el diamante los átomos de carbono presentan una hibridación sp3, es decir se han originado cuatro orbitales híbridos que adoptan una disposición tetraédrica en el espacio. Cada átomo de carbono se une a otros cuatro mediante un enlace covalente dando lugar a la estructura tridimensional que tenemos representada en la figura 3.3A. Y es justamente esta red tridimensional de enlaces covalentes lo que determina la enorme dureza que presenta el diamante. De hecho, el origen de la palabra diamante hay que buscarlo en un término griego δάμας (adamas) que significa “el invencible”.

Entre otras propiedades que presenta el diamante, y que hace que no sólo sea codiciado por su belleza sino también por sus importantes propiedades tecnológicas, destacan su alto punto de fusión, su completa transparencia y el no ser conductor sino un excelente aislante térmico y eléctrico. El carbono con hibridación sp3 es también el más habitual en las moléculas biológicas de las que hablaremos en el capítulo 5, en las que el C está combinado entre sí y también con otros elementos como N, O, H, P y S.

Sin embargo, cuando los átomos de carbono presentan hibridación sp2, los orbitales híbridos se distribuyen en un plano formando ángulos de 120º (imaginemos la estrella de los coches Mercedes o las aspas de un aerogenerador) y el orbital de tipo p puro se dispone perpendicularmente a dicho plano. Este tipo de hibridación es la que presentan los átomos de carbono que forman el grafito, originándose un material formado por láminas paralelas entre sí.

En el grafito cada átomo de carbono se enlaza muy fuertemente con otros tres átomos de carbono formando una malla de aspecto hexagonal (como un panal de abeja). Este tipo de materiales presenta la particularidad de que, aunque los átomos que se encuentran en el mismo plano están muy fuertemente unidos entre sí (enlace covalente entre híbridos sp2), las láminas se unen unas a otras mediante fuerzas de Van der Waals, que son mucho más débiles que los enlaces covalentes.

Como consecuencia, las propiedades del grafito son diferentes en el plano y en la dirección perpendicular al mismo. Es decir, el grafito presenta una gran anisotropía en sus propiedades, variando muchas de ellas sustancialmente dependiendo de la dirección en que se realice la medida. De estas características del enlace atómico se derivan sus propiedades físicas. Así, por ejemplo, el grafito es un material que presenta una dureza elevada en el plano pero mucho menor en la dirección perpendicular y por tanto es muy fácil separarlo en láminas (exfoliarlo). De manera análoga, es un buen conductor de la electricidad en el plano, y muy malo en la dirección perpendicular. El grafito es además un material muy inerte. Cuando el grafito es sometido a altas presiones y temperaturas, es posible cambiar su estructura cristalina y puede llegar a convertirse en diamante, como ocurre en el interior de la Tierra.

A un solo plano atómico de grafito se le llama grafeno, y éste, a diferencia del grafito, es bastante difícil de obtener. Recientemente, mediante cálculos teóricos, se han realizado predicciones acerca de las importantes propiedades electrónicas que podría tener este material. Entre ellas una altísima movilidad electrónica y una baja resistividad, de manera que uno de estos planos atómicos podría sustituir al silicio que se utiliza actualmente en multitud de dispositivos. Ahora bien, a día de hoy, estas propuestas provienen esencialmente de cálculos teóricos y por tanto antes de que el grafeno pase a sustituir al silicio en la electrónica del futuro es necesario verificar las predicciones teóricas en el laboratorio. Actualmente, éste es un campo muy activo de investigación, y muchos grupos están trabajando en la obtención de capas de grafeno soportadas sobre diferentes materiales, como polímeros o aislantes, para poder determinar sus propiedades eléctricas y comprobar las predicciones teóricas.

Por último, en el caso de que los átomos de carbono adopten una hibridación sp se originará la tercera estructura básica del carbono: los carbinos. Este tipo de compuestos, al contrario que el diamante y el grafito, han sido muy poco estudiados, llegando incluso a dudarse de su existencia en forma pura.

En los ejemplos que hemos visto hasta ahora, los átomos de carbono que forman parte de la estructura presentan un único tipo de hibridación. Ahora bien, existen compuestos que tienen una configuración mezcla, por ejemplo una parte de átomos de carbono presenta hibridación sp2 y otra sp3. Estos compuestos son los llamados quasi-diamantes o quasi-grafitos, según predomine el número de orbitales sp3 o sp2.

 Este tipo de materiales se puede conseguir fácilmente en los laboratorios, y presentan una gran utilidad tecnológica en diversos campos, aunque fundamentalmente destaca su uso como protectores debido a su elevada dureza, baja fricción y alta resistencia al desgaste. Así, por ejemplo un recubrimiento de quasi-diamante (de no más de 500 nm de espesor) depositado sobre unos esquíes, una raqueta de tenis o unas gafas aumenta notablemente su dureza evitando que se rayen fácilmente.

Otro tipo de compuestos formados fundamentalmente por carbono e hidrógeno, aunque también pueden incluir otros elementos, como oxígeno, azufre o nitrógeno, son los polímeros. Estos compuestos tienen una gran relevancia en la tecnología actual debido al enorme número de aplicaciones que presentan. A esta familia pertenecen, por ejemplo, los plásticos, como el cloruro de polivinilo (o PVC), un material ampliamente utilizado en todo el mundo. En particular, el descubrimiento de un cierto tipo de polímeros, llamados polímeros conductores, ha despertado un enorme interés en la comunidad científica.

 Las inusuales propiedades eléctricas y ópticas que presentan ha permitido su aplicación en diversos campos y en concreto están dando mucho juego en el campo de la electrónica molecular.



EEE 3.1 Conseguir diamante en un laboratorio
El diamante se forma en el interior de la Tierra, donde la presión y la temperatura son muy elevadas. Sin embargo, de manera artificial es posible descomponer la molécula de metano, CH4, forzando a que los orbitales del carbono mantengan su forma tetragonal, originando la estructura del diamante. Este proceso se consigue en complejos equipos de vacío, en los que se aplican descargas eléctricas al metano para que, a medida que se descompone, sus átomos de carbono vayan reaccionando entre sí.

El resultado es la formación de pequeños cristalitos de diamante como los que se muestran en la figura. En ella vemos una imagen de microscopía electrónica de barrido (SEM) siendo las aristas de cada uno de los cristalitos de aproximadamente 500 nm. Por desgracia, debido a la gran cantidad de hidrógeno que existe en su interior no crecen más de unas cuantas micra. De esta manera nunca podríamos fabricar la joya que queríamos engarzar para un regalo!

El balón de fútbol más pequeño del universo: los fullerenos
Recientemente se han descubierto nuevas formas del carbono que son muy prometedoras para la nanotecnología. Comenzaremos por describir la primera de ellas: el llamado C60, fullereno o “buckyball. El balón está formado por 12 pentágonos y 20 hexágonos. Si contamos las intersecciones de las costuras veremos que hay 60. Ahora bien, imaginemos que ese mismo balón lo reducimos 100 millones de veces y que en cada una de las intersecciones colocamos un átomo de carbono. Tendremos entonces una molécula, en la que 60 átomos de carbono presentan una hibridación esencialmente tipo sp2. La figura geométrica que forman dichos átomos se denomina icosaedro truncado. Para que nos hagamos una idea de cómo de pequeña es esta molécula podemos imaginarnos que la misma relación de tamaño hay entre la tierra y el balón de fútbol que entre el balón y el fullereno.

La posibilidad de existencia de esta molécula la predijo teóricamente E. Osawa en los años 70 del siglo pasado. Los cálculos realizados permitieron incluso definir muchas de sus propiedades, aunque sin embargo, no se tenía ninguna prueba sobre la existencia de esta molécula en la naturaleza. En 1985 H. Kroto y sus colaboradores investigaban la composición del carbono en el medio interestelar a billones de kilómetros de distancia de la Tierra. Observaron una señal de absorción de rayos infrarrojos desconocida hasta el momento. Buscando de dónde podría proceder, se dieron cuenta que correspondía a esa molécula tipo balón de fútbol predicha anteriormente. H. Kroto, R.F. Curl y R. Smalley obtuvieron el premio Nobel de Química en 1996 por este descubrimiento. Hoy día se conocen muchas de estas moléculas cerradas sobre sí mismas, diferenciándose entre ellas en el número total de átomos. Unas presentan formas esféricas (como nuestro nano-balón, el C60) , otras parecen más bien un balón de rugby. Por ejemplo, C70, C48 o C34 son las más conocidas, sin embargo otras no se han podido sintetizar. La existencia o estabilidad de muchas de estas moléculas es todavía un misterio. Al conjunto de distintas moléculas cerradas sobre sí mismas con formulación Cn se le denomina “fullerenos”.

EEE 3.2 Diez fullerenos o la calculadora más pequeña del mundo
El investigador J. Gimzewski entró en 2001 en “el libro Guinness de los records” por haber construido la calculadora más pequeña del mundo, de tamaño nanométrico, basándose en la utilización de estás moléculas de C60. En realidad, la calculadora consistía en un ábaco con únicamente 10 cuentas, siendo cada una de ellas una molécula de fullereno. Las cuentas no se movían con la mano, sino con la punta de un STM.

Los fullerenos o “bucky-balls” recibieron estos nombres en honor al arquitecto Richard Buckminster Fuller, quién diseñó cúpulas geodésicas basadas en pentágonos y hexágonos. Un ejemplo de este tipo de cúpulas lo podemos ver en cualquier planetario y en la figura 3.7. Este tipo de construcciones son muy estables y logran encerrar un mayor volumen en una menor área.

Aunque la síntesis controlada de fullerenos requiere complicadas técnicas, tales como la vaporización del grafito o la pirólisis láser (técnica que consiste en calentar sustancias mediante un láser de alta energía para formar otras), la formación sin más de este tipo de estructuras se produce más fácilmente de lo que podemos imaginar, pues son uno de los principales integrantes de la carbonilla y se generan abundantemente en cualquier combustión. ¡Piensa en ello cada vez que enciendas una vela!


 Por una parte, son un componente fundamental de lo que se llama electrónica molecular, ya que poseen propiedades rectificadoras interesantes para la fabricación de nuevos dispositivos. Por otra parte, se han hecho predicciones acerca de sus posibles aplicaciones en biomedicina. Al ser una molécula rígida, otras biomoléculas, como por ejemplo fármacos inhibidores del virus del sida, podrían unírsele sin deformar su estructura y ser transportadas por el organismo hasta encontrar el virus. Además, como los fullerenos están huecos, pueden encerrar en su interior pequeñas moléculas o incluso átomos, como por ejemplo gadolinio. Este elemento, gracias a sus propiedades magnéticas, aumenta la señal en los estudios de resonancia magnética nuclear utilizados en la detección del cáncer.


A pesar de que estas aplicaciones parecen muy prometedoras, están todavía en una fase inicial y es necesario seguir investigando. Así, por ejemplo, hoy día se sabe cómo encerrar moléculas o átomos dentro de los fullerenos y cómo dirigirlos hacia un punto concreto del organismo donde desempeñarán su labor reparadora. Sin embargo, una vez el fullereno ha liberado su carga aparece un problema: ¿cómo deshacernos de la molécula transportadora, es decir, del envase? Tenemos un problema de reciclado molecular.

Nanotubos de carbono: el hilo mágico
Si el descubrimiento del C60 fue un hito importante para la nanotecnología, el de los llamados nanotubos de carbono lo ha superado con creces, ya que debido a las excelentes propiedades que presentan y a lo fácil y económico que resulta fabricarlos, nos encontramos ante un material con unas aplicaciones realmente prometedoras. Imaginemos que disponemos de un material que es 10 veces más ligero que el acero, 100 veces más resistente, y a la vez 10.000 veces más fino que un cabello. A estas interesantes propiedades mecánicas se le añaden unas relevantes propiedades eléctricas, puesto que pueden ser tanto conductores como aislantes. Así, por ejemplo, podremos disponer de un cable para fabricar circuitos electrónicos con diámetros, no de 0.1 micras, como en los circuitos integrados actuales, sino inferiores a 10 nanómetros, es decir, entre 10 y 100 veces más pequeños.

Los nanotubos de carbono fueron descubiertos de manera accidental en 1991 por S. Ijima, cuando este investigador estudiaba el depósito de carbono que se obtiene en una descarga eléctrica de grafito. Al realizar el análisis encontró unos filamentos de unos pocos nanómetros de diámetro y algunas micras de largo. Estos filamentos resultaron ser mucho más interesantes de lo que en principio parecían, es decir un simple desecho pulverizado de carbono.

Imaginemos un plano atómico de grafito (grafeno), y supongamos que ese plano lo enrollamos sobre sí mismo como si se tratase de un mantel o un póster. Como se puede ver en la figura 3.10, la forma de plegarlo puede ser recta o con un cierto ángulo, obteniéndose un tubo tan largo como queramos. Pues bien, aquí aparece ya una de las propiedades curiosas de los nanotubos: según como enrollemos el póster, obtendremos un nanotubo que puede conducir la corriente eléctrica, ser semiconductor o ser aislante. En el primer caso, los nanotubos de carbono son muy buenos conductores a temperatura ambiente, pudiendo transportar elevadas densidades de corriente.

Hoy día, si queremos transportar una corriente eléctrica elevada necesitamos utilizar cables de cobre muy gruesos y caros. Esto podría hacerse en el futuro mediante nanotubos. Por otra parte, si introducimos defectos en la estructura podemos generar moléculas semiconductoras y así formar diodos o transistores: los dispositivos fundamentales de los aparatos electrónicos y que veremos en el capítulo 6. Un diodo formado por una sola molécula es algo asombroso en cuanto a las posibilidades de integración que abre en la industria de la electrónica. Los nanotubos de carbono permitirán unir el mundo de la electricidad (en el que es necesaria potencia y grandes corrientes eléctricas para mover motores) con el de la electrónica (pequeños voltajes, pequeños dispositivos).


Decíamos que los nanotubos poseen importantes propiedades mecánicas. Y esto no podía ser de otra manera, ya que están formados por átomos ligeros (carbono), pero que se encuentran unidos entre sí por fuertes enlaces (hibridación sp2). Como consecuencia directa de esta estructura, este material es cien veces más resistente que el acero, a la vez que diez veces menos denso. Tienen una alta capacidad para doblarse pero sin romperse, manteniendo inalterada su estructura interna. En cuánto a dureza, destacar que los nanotubos descritos hasta el momento (de pared sencilla, es decir una lámina de grafeno enrollada sobre sí misma) son muy duros. Y esta dureza puede ser incluso mayor si, en lugar de un nanotubo de pared sencilla, lo que tenemos es un nanotubo de pared múltiple (varias láminas enrolladas sobre sí mismas e introducidas unas dentro de otras a la manera de las antiguas antenas de coche, los bastones telescópicos que usamos en las montañas o las matrioskas rusas). Por otra parte son muy eficientes conductores del calor, tal vez los mejores conocidos hasta hoy, y a la vez presentan un bajísimo coeficiente térmico de expansión. Debido a todas estas fascinantes propiedades, se ha potenciado enormemente la investigación relativa a su utilización. Así, por ejemplo, si los “mezclamos” con matrices poliméricas, podremos dotar a éstas con las magníficas propiedades de estos hilillos mágicos.

Los nanotubos de carbono son, por tanto, una de las grandes apuestas de la nanotecnología actual, haciéndonos soñar con que en un futuro no muy lejano, estos materiales estén presentes en numerosos campos como puede ser el de los circuitos electrónicos (capítulo 6) o el de la construcción (ver el cuadro nanotubos como un nuevo acero).

Pero una vez que sabemos cómo está hecha, el problema es fabricarla. La solución para su fabricación no vino desde el ámbito de la ciencia de materiales, sino de la genética.

Primero, en un grupo de investigación americano se consiguió secuenciar los genes involucrados en la biosíntesis de la fibroína de manera que se pudieron conocer los mecanismos de formación de la tela. Posteriormente, la empresa canadiense NEXIA Biotechnologies, en el año 2000, produjo la primera tela de araña artificial. Para ello modificaron genéticamente una raza de cabras para que produzcan la proteína de la tela de araña como un componente más de su leche. Así, al ordeñar las cabras se conseguían fibras como las que fabrican las arañas. Esta empresa ha firmado un acuerdo de explotación de su patente, llamada Biosteel ® (bio-acero), con el ejército de los EE.UU. para fabricar chalecos antibalas más ligeros  existentes.

.

EEE 3.4 Las zeolitas
Bajo esta denominación (del griego “zein” = hervir y “lithos” = piedra, es decir, piedras que hierven) se engloban unos fascinantes minerales que se estudian en muchos campos debido a la gran cantidad de aplicaciones que presentan, fundamentalmente en el campo medioambiental. Podemos definirlas como minerales de aluminio, silicio y oxigeno que presentan una estructura ordenada de micro o nano-poros, que permiten (o no) el paso de algunas moléculas. Las zeolitas naturales son de origen volcánico (de ahí su nombre). Sin embargo, actualmente en muchos laboratorios se sintetizan zeolitas artificiales, pues dependiendo de la aplicación industrial a la que se quieran destinar pueden ser diseñadas a medida. Por ejemplo, pueden usarse como catalizadores en la industria petroquímica o como tamices moleculares en la purificación de gases y líquidos.


El interior de una zeolita es un verdadero laberinto. De manera que si, como hacemos con un guante, pudiésemos darle la vuelta y mirar en su interior, nos encontraríamos con una superficie enorme. Como consecuencia de esta particular estructura, las zeolitas son materiales altamente porosos (debido a la presencia de los canales nanométricos), que pueden utilizarse para, por ejemplo, purificar el agua como ya hacían en el Imperio Romano.


4 Nano-química: la danza de las moléculas
Modelos atómicos de formación de moléculas llamadas fullerenos a partir de otras moléculas más sencillas.

Ya en el capítulo 2 quedó claro el enorme avance que ha supuesto para la nanotecnología el contar con herramientas tan poderosas como los miscroscopios de campo cercano (SPM). Así, por ejemplo, vimos cómo era posible ir colocando moléculas de manera secuencial, hasta escribir un texto concreto. Sin embargo, desde un punto de vista práctico esta metodología no es operativa, pues, por ejemplo, la construcción del emoticono mostrado en la figura 2.10 (formado únicamente por 10 moléculas) requiere tres horas para su ensamblaje. Obviamente esta escala de tiempos hace inviable la construcción de dispositivos a escala industrial mediante este tipo de procesos, imponiéndose la necesidad de buscar otras estrategias más efectivas. ¿Cómo se pueden entonces manipular las moléculas a voluntad, de manera que éstas se ordenen rápidamente y de una forma determinada, para construir un dispositivo molecular? ¿O estará una vez más la respuesta en la propia naturaleza?

Construcción de dispositivos moleculares mediante la aproximación bottom-up
Seamos realistas. Imaginemos que renunciamos a construir un dispositivo uniendo moléculas de una en una, pero que decidimos construirlo utilizando esferas de mayor tamaño. Esto es perfectamente posible pues existen robots que, trabajando unidos a microscopios electrónicos (tipo SEM), son capaces de manipular objetos de estas dimensiones con una gran precisión. De hecho, estos robots han conseguido colocar nanoesferas de sílice (dioxido de silicio), de unos 700 nm de diámetro, para formar estructuras ordenadas. Teniendo en cuenta que el tiempo promedio para que el robot coloque cada esfera es de 7 minutos, ¿cuánto tardaríamos en tener listo un dispositivo con un volumen 1 mm3? Una cuenta sencilla nos indica que se necesitarían en torno a 74.000 años para ensamblar esta estructura. Parece imposible, por tanto, utilizar la aproximación bottom-up para construir cualquier cosa. ¿Es entonces un fracaso la nanotecnología a nivel molecular? Está claro que no, pero necesitamos nuevas ideas. A la vista está que la estrategia de ir colocando “piezas” secuencialmente mediante sistemas mecánicos no parece ser la adecuada para lograr nuestro objetivo: quizá debamos pensar en algo absolutamente diferente. Y para ello, nada mejor que fijarnos en los mecanismos que llevan millones de años funcionando y evolucionando en la naturaleza y que han permitido el desarrollo de los seres vivos. Cualquier organismo es un estupendo ejemplo de construcción “bottom-up”, ya que a partir de una secuencia genética y aprovechando recursos del entorno se logran fabricar sistemas de enorme complejidad estructural y funcional. Pensemos, por ejemplo, en cómo a partir de una serie de unidades básicas constituyentes (nucleótidos, aminoácidos, ácidos grasos, monosacáridos) se originaron estructuras más complejas (ácidos nucleicos, proteínas, lípidos, polisacáridos).

Y es que aquello, que ya empezaba a parecernos un sueño imposible, es precisamente lo que llevan haciendo ciertas moléculas orgánicas por sí solas desde hace miles de millones de años. Poco a poco, como veremos en el capítulo 5, las moléculas fueron organizándose en estructuras cada vez más complejas hasta que dieron lugar a la vida. Inspirándonos, pues, en la naturaleza, podemos aprovechar esta tendencia que exhiben ciertas moléculas para autoorganizarse según patrones regulares a escala nanométrica, de forma tal que nos permita construir dispositivos moleculares mediante la aproximación bottom-up (de abajo a arriba).

EEE 4.1 El azul maya: un ejemplo de material híbrido
Quizá lo que más llama la atención al observar este hermoso mural, pintado en torno al siglo VIII, es el intenso color azul que presenta el fondo. Esta coloración tan vistosa la proporciona un pigmento conocido por “azul maya”, pues fue muy utilizado por esta civilización en múltiples murales y piezas de cerámica. Se elaboraba mediante extracción del índigo o añil (un colorante orgánico natural) obtenido a partir de ciertas plantas tropicales. Si tenemos en cuenta que los colorantes orgánicos son, en general, moléculas muy sensibles que se alteran fácilmente por acción del calor, la luz o el ataque químico ambiental, el intenso color azul que presenta el mural tras muchos siglos de rigores ambientales parece algo milagroso. ¿Cómo ha conseguido el color mantenerse inalterado con el paso del tiempo? Pues bien, el secreto de los mayas ha permanecido bien guardado hasta que a principios de este siglo la existencia de ciertas técnicas ha permitido saber que tiene este colorante que no tengan otros para presentar unas propiedades tan peculiares.

En realidad, el pigmento conocido como “azul maya” no está únicamente formado por el colorante orgánico (índigo), sino que es un perfecto ejemplo de material híbrido orgánico-inorgánico, pues el colorante se encuentra atrapado en la red de un mineral llamado paligorskita. El compuesto resultante presenta un color azul intenso (proporcionado por el índigo) y a la vez una enorme resistencia al ataque ambiental y
una gran estabilidad (aportadas por el mineral). La “síntesis” de un material tan particular fue realizada por los mayas sin ellos saberlo, pues una vez extraído el índigo de las hojas lo sometían a un proceso de lavado para el cual utilizaban aguas arcillosas ricas en paligorskita. Durante este proceso de lavado, el índigo se introducía en huecos de tamaño nanométrico de la red del mineral donde quedaba protegido originando un pigmento al cual los mayas le sacaron un excelente partido. Hoy día, ya en el siglo XXI, uno de los objetivos de la química es precisamente lograr lo que ya consiguieron los mayas en el siglo VIII: el diseño de nuevos productos a nivel atómico y molecular que presenten propiedades nuevas y diferentes a las de los constituyentes. Ahora bien, en la actualidad, esta síntesis de compuestos híbridos ya no es un fruto de la casualidad, sino una consecuencia de los enormes avances realizados en numerosos campos que han abierto las puertas al diseño de materiales a partir del control molecular y supramolecular.

La química supramolecular y el diseño de moléculas a la carta
Como consecuencia de lo expuesto anteriormente, queda claro que, para que este enorme desarrollo de lo “nano” esté teniendo lugar, es necesaria la convergencia de múltiples disciplinas científicas. Entre ellas, la química juega un papel esencial. En particular, una serie de campos relativamente nuevos entre los que se incluyen los materiales moleculares, los polímeros funcionales o una “nueva clase de química”, conocida con el nombre de química supramolecular, cuyos padres fueron los científicos norteamericanos C. J. Pedersen y D. J. Cram y el francés J.-M. Lehn. Los tres compartieron el Premio Nobel de Química en 1987 por sus trabajos en este campo: “for their development and use of molecules with structurespecific interactions of high selectivity” (“Por el desarrollo y uso de las moléculas dotadas de acción estructural específica de alta selectividad"). El prefijo “supra” es de origen latino y significa “sobre, por encima de, más allá de”. Por tanto, podríamos decir que la química supramolecular es aquella química que está más allá de la molécula. Siendo más precisos, podemos definirla como una disciplina emergente dentro del campo de la química que se encarga del estudio de entidades moleculares (“supramoléculas”) surgidas como consecuencia de interacciones no covalentes entre varias especies químicas. Es, en definitiva, y en palabrasde J.-M. Lehn, la química de los enlaces intermoleculares (entre moléculas). La naturaleza también trabaja habitualmente con supramoléculas y así, por ejemplo, los ribosomas, responsables de traducir la información genética a proteínas, son auténticos agregados moleculares formados por más de 50 biomoléculas.

 El inicio de la química supramolecular artificial se produjo en los años 60 del pasado siglo cuando Pedersen, en el curso de la síntesis de un determinado compuesto, obtuvo un subproducto que resultó ser una de las primeras supramoléculas que se estudiaron: la formada por éteres-corona (del inglés, “Crown ethers”) y los iones alcalinos. Los éteres-corona son éteres cíclicos llamados así porque su forma se parece a la corona de un rey vista desde arriba. Como podemos ver en la figura 4.3, presentan una cavidad en su centro cuyas dimensiones varían en función del tamaño del anillo. Este tipo de compuestos son capaces de reconocer a los cationes alcalinos al interaccionar atractivamente con la carga positiva del ión. Dado que los iones alcalinos poseen diferente radio iónico, cada uno de ellos va a encajar preferentemente en un éter-corona distinto, aquél cuyo hueco central sea más parecido al tamaño del ión. Así, por ejemplo, el éter cuyo hueco central es el más pequeño (en torno a 1,4 Å) de los representados en la figura 4.3, llamado éter 12-corona-4 (indicando que el anillo tiene 12 átomos, de los cuales 4 son oxígeno) podría acoplarse al ión Li+ cuyo diámetro es 1.2 Å, pero no al K+ cuyo diámetro es 2.7 Å.

 La estructura resultante de la interacción éter-corona e ión alcalino que vemos representada en la figura es, por tanto, un ejemplo típico de especie supramolecular.
Los enlaces covalentes son enlaces fuertes entre átomos. Estos enlaces, una vez formados, son muy estables y, por tanto, difíciles de romper. En cambio, las fuerzas intermoleculares involucradas en la formación de una estructura supramolecular son de mucha menor magnitud (ver tabla siguiente). Entre las interacciones de este tipo más usuales destacan, por ejemplo, los enlaces de Van der Waals o la formación de puentes de hidrógeno. Esto implica que, en general, los enlaces que tienen lugar en química supramolecular son más débiles que en química molecular, resultando en interacciones típicamente dinámicas y reversibles, lo cual va a ser de gran importancia para la nanotecnología.

EEE 4.2 Respiramos gracias a moléculas
En los seres vivos también existen moléculas con forma de anillo en cuyo interior se introducen otros átomos. Un ejemplo típico es el grupo hemo, que forma parte de la hemoglobina en los glóbulos rojos de nuestra sangre. El hierro se sitúa en el centro del anillo de la molécula de porfirina, pudiendo unirse también al oxígeno. Como consecuencia de ello, este compuesto es capaz tanto de almacenar como de transportar oxígeno, permitiendo así la respiración en los seres vivos. En la figura, vemos el modelo atómico de una molécula de porfirina con un átomo de Fe, así como una imagen de la misma molécula depositada sobre una superficie, en un intento de reproducir los procesos de captación de energía sobre una superficie a nivel molecular. De nuevo la nanociencia se fija en la naturaleza.

Aunque la importancia que ha adquirido esta nueva área de la química es relativamente reciente, la base de funcionamiento que subyace en ella (el reconocimiento molecular) es común a muchos procesos bioquímicos que se dan en la naturaleza: catálisis enzimática, reconocimiento antígeno-anticuerpo y formación de agregados macromoleculares como el ribosoma, que hemos comentado anteriormente. Cuando estos procesos, que implican un reconocimiento molecular entre varias especies químicas, se producen de manera repetitiva se forman agregados de gran complejidad. Estos mecanismos suponen la generación de una estructura supramolecular a partir de la auto-organización y auto-ensamblaje de ciertas “unidades básicas” (una sola molécula o más de una molécula), que al reconocerse entre sí se unen de manera espontánea formando arquitecturas nanométricas complejas. La idea conductora final es que estos sistemas autoensamblados, que el químico sintetiza en el laboratorio, puedan ser utilizados por profesionales de otras áreas (p.e. físicos o ingenieros) para la construcción de diversos dispositivos. Muchos grupos de investigación han dedicado grandes esfuerzos al diseño y construcción de máquinas moleculares en las que mediante un estímulo externo (input) la supramolécula transforma su estructura obteniéndose un movimiento mecánico (output). Se trata, pues, de diseñar sistemas moleculares capaces de realizar una determinada acción por efecto de un estímulo externo. La aplicación de este tipo de sistemas puede ser tan variada como el diseño de músculos artificiales o de interruptores moleculares que puedan utilizarse en la construcción de ordenadores moleculares.

La nanotecnología mueve montañas: máquinas moleculares
Después de todo lo que hemos visto hasta el momento, a nadie le sorprenderá que el concepto de máquinas moleculares apareciese ya esbozado en el discurso que Feynman pronunció en 1959 frente a la Sociedad Americana de Física.

“¿Cuál podría ser la utilidad de tales máquinas? ¿Quién lo sabe? No puedo saber exactamente que pasaría pero no tengo ninguna duda que cuando tengamos el control sobre la colocación de cosas a nivel molecular se nos abrirá un enorme rango de posibles propiedades que las sustancias pueden tener y de las cosas que podemos hacer”.

El concepto de máquina o motor molecular puede comprenderse fácilmente por simple extrapolación de las máquinas macroscópicas que todos conocemos. En el mundo que nos rodea, un motor es un dispositivo capaz de transformar la energía que se le proporciona en movimiento.

Pues bien, al igual que sus equivalentes macroscópicos, podemos definir una máquina a nivel molecular como un dispositivo, formado a partir del ensamblado de una serie de entidades moleculares, y diseñado de manera que al recibir un estímulo externo (irradiación luminosa, impulsos eléctricos, cambio de pH) transforma su estructura originando un movimiento mecánico.

Este proceso es reversible y, por tanto, cuando el estímulo cesa se vuelve a la situación inicial.

Los rotaxanos son compuestos supramoleculares que podríamos asemejar a un eje (una molécula lineal) introducido dentro de una rueda (una molécula cíclica). Para que la rueda no se salga del eje en los extremos de éste último debe haber grupos voluminosos (a modo de topes). Cuando a este compuesto supramolecular le apliquemos un determinado estímulo existen dos movimientos mecánicos posibles: una rotación relativa entre la molécula-eje y la molécula-rueda o una translación relativa de la molécularueda a lo largo de la molécula-eje. Imaginemos que en el rotaxano representado en la figura, la molécula lineal presenta dos zonas diferenciadas, una más rica en electrones que la otra.

 La molécula cíclica, que tiene cargas positivas, se sitúa sobre la zona más rica en electrones quedando unida a ella por interacciones electrostáticas. Si mediante un estímulo externo (por ejemplo, químico) protonamos esta zona, se producirá una repulsión electrostática entre ella y la molécula cíclica. La consecuencia de esta repulsión es un deslizamiento de la molécula cíclica sobre la molécula lineal: el pistón se desplaza sobre el eje. El proceso descrito es reversible y, por tanto, si desprotonamos, volveremos a la situación de partida. Se origina así, un movimiento mecánico de vaivén como consecuencia de la repetición del proceso.

Este es sólo un ejemplo de cómo funciona “una máquina molecular”, pero dependiendo de, entre otras cosas, el tipo de estímulo suministrado o los movimientos mecánicos que origine tendremos toda una amplia gama de posibilidades tecnológicas.

Las aplicaciones en nanotecnología que se pueden derivar de este tipo de dispositivos capaces de responder de una forma predecible ante determinados estímulos son inmensas y van desde la distribución de fármacos a través de membranas a la construcción de músculos artificiales. Un ejemplo interesante y al que se le dio una gran difusión mediática en diversos periódicos con encabezamientos tan sugerentes como ”La nanotecnología mueve por vez primera una montaña: Una gota visible a simple vista es desplazada por una máquina 80.000 veces más pequeña que el ancho de un cabello” fue la construcción de una máquina molecular realizada por el grupo del profesor D. Leigh de la Universidad de Edimburgo en el Reino Unido. El dispositivo construido por este grupo de investigación y sus colaboradores está basado en la modificación de una superficie de oro mediante la formación de una monocapa autoensamblada de alcanotioles sobre la cual se adsorbe un rotaxano.

 Mediante irradiación con luz UV (con longitud de onda en el rango 240-400 nm) se modifican las propiedades de la superficie, y como consecuencia de esto, se logra desplazar una gota (a lo largo de 1 mm) que previamente ha sido depositada sobre dicha superficie. Aunque se trata únicamente de 1 mm y puede no parecernos gran cosa, no hay que olvidar la escala en que nos movemos, como recuerdan los autores del trabajo: “la potencia de la máquina equivale en el mundo macroscópico a un pistón que se corre sólo un milímetro pero mueve un rascacielos” (este trabajo fue publicado en la revista Nature Materials).

 La gran repercusión mediática que tuvo este experimento se debe a que éste es uno de los primeros ejemplos que demuestran cómo las máquinas moleculares pueden integrarse con éxito en el mundo macroscópico, pudiéndose a partir de estas ideas desarrollar nano-máquinas que realicen algunas tareas físicas. ¡Y esto es sólo un pequeño ejemplo de lo que se puede conseguir mediante la utilización de máquinas moleculares!




Las monocapas autoensambladas
El concepto de autoensamblaje molecular ha sido ampliamente utilizado para lograr la modificación de diversas superficies, originando lo que se conoce con el nombre de monocapas autoensambladas. La formación de este tipo de estructuras está basada en la capacidad que presentan ciertas moléculas para, de forma espontánea, adsorberse (quedar unidas) y colocarse de una determinada manera sobre la superficie de un material.

¿Cómo podemos visualizar este tipo de procesos? Pues bien, imaginemos que tiramos al aire un montón de ladrillos y que estos al caer, sin necesidad de ninguna acción externa, se van acoplando entre ellos de manera que acaban formando la pared de una casa. Esta forma de construir, que con ladrillos sería imposible, es mucho más fácil con moléculas. Tanto, que es accesible para cualquier estudiante de química, ya que en realidad el mérito no será suyo sino de las propias moléculas.

 El proceso de autoensamblado molecular, que se produce de forma espontánea, da lugar a la formación de capas cuyo espesor corresponde al de una sola molécula. De ahí que dichas capas se conozcan con el nombre de monocapas autoensambladas (en inglés, “self assembled monolayers” o SAMs).

Un ejemplo de formación de monocapas autoensambladas. El experimento fue realizado recientemente en el laboratorio de investigación de uno de los autores de este libro, donde mediante la utilización del microscopio de efecto túnel (STM) se estudió la formación de una monocapa autoensamblada de una molécula orgánica: el PTCDA (dianhídrido perililenotetracarboxílico). Se observó una superficie plana de oro.

La forma de espina de pescado o “zig-zag” que corresponde a átomos de oro que sobresalen un poco sobre sus vecinos. Esta superficie limpia es la que va a utilizarse como sustrato para depositar sobre ella moléculas orgánicas de PTCDA. Se puede ver cómo estas moléculas, una vez se han puesto en contacto con la superficie, se van a desplazar sobre ella hasta que se encuentren con otra molécula, momento en el que se colocarán de una manera determinada (en este caso, formando una cadena en “zig-zag”).

Se pudeo ver la imagen de la monocapa de PCTDA resultante una vez se ha cubierto toda la superficie, junto con un esquema de la colocación de estas moléculas (D). Una vez que la capa está completa ya no se adsorben más moléculas. Ellas solas se han reconocido y colocado de manera ordenada sobre la superficie. Para que esto suceda no tenemos que hacer absolutamente nada pues el proceso ocurre de forma espontánea, y son las propias moléculas las que buscan su disposición más estable sobre la superficie.

Por tanto, el procedimiento experimental para formar una monocapa autoensamblada es extremadamente sencillo: basta con poner en contacto la superficie elegida con las moléculas orgánicas (estas pueden encontrarse en disolución o llegar a la superficie en fase de vapor a través de un sistema de vacío) para que se produzca la adsorción, dando lugar a una monocapa de orientación y empaquetamiento bien definidos.

¡Hemos pasado de 3 horas para colocar 10 moléculas a pocos segundos para colocar millones de ellas! Aunque en el ejemplo anterior se ha utilizado una molécula orgánica bastante compleja para formar la monocapa, tal vez las moléculas más útiles para comprender y aprovechar los procesos de autoensamblado sobre superficies metálicas de oro sean los llamados alcanotioles: hidrocarburos saturados (alcanos) que acaban en un grupo tiol (grupo formado por un átomo de azufre y uno de hidrógeno, - SH), como indica la figura 4.7.

En el tiol que se adsorbe podemos distinguir 3 partes: cabeza o grupo de anclaje, esqueleto o grupo espaciador y grupo terminal o funcional. La cabeza proporciona la afinidad química con el soporte, en este caso por la interacción azufre-oro, permitiendo su anclaje a la superficie; el esqueleto orgánico posibilita la estabilización de la estructura mediante débiles interacciones de Van der Waals con los esqueletos de otras moléculas quimiadsorbidas vecinas, y también permite la formación de estructuras ordenadas.

Por último, el grupo funcional específico es el que va a quedar expuesto al ambiente y a definir tanto la reactividad como las propiedades físico-químicas de la superficie modificada, y por consiguiente, sus posibles aplicaciones.

El gran potencial que se esconde detrás de la utilización de monocapas autoensambladas para llevar a cabo ingeniería de superficies ya se intuyó casi desde su descubrimiento, suscitando un gran interés en investigadores de todo el mundo. Los numerosos trabajos de investigación dedicados al estudio de estas capas han permitido que, con el tiempo, se haya convertido en una estrategia muy utilizada para la preparación de superficies activas.

En este contexto, las monocapas autoensambladas se utilizan fundamentalmente para dos fines generales: diseñar superficies con propiedades específicas o dotar a las superficies con determinados grupos funcionales de utilidad en reacciones posteriores.


EEE 4.4. Diseño de superficies con propiedades específicas: una gotita de agua muy voluble

Vemos dos placas de oro sobre las que se ha depositado una gota de agua. Si nos fijamos bien, vemos que en la imagen de la derecha la gota de agua se extiende ocupando toda la superficie posible. Así a simple vista, parecería que la gota y el oro están encantados de haberse conocido. En cambio, en la imagen de la izquierda la situación ha cambiado radicalmente: ahora nuestra gota de agua parece no querer saber nada del oro, recogiéndose todo lo que puede sobre sí misma, intentando minimizar el contacto.

¿Qué puede estar pasando aquí? Respecto a la utilización de monocapas autoensambladas como materiales de recubrimiento o protección inteligente de superficies, ¿quién no ha imaginado en un día de lluvia intensa que el agua que cae sobre los cristales del coche se expulse lejos de ellos sin que ni tan siquiera los roce? O que ocurra algo similar en nuestros zapatos o en el paraguas. Aproximarnos a esta situación tan idílica implicaría el diseño de un material lo más hidrofóbico posible (que repela el agua). Volvamos ahora a las dos fotografías anteriores. En la fotografía de la derecha se observa como al depositar una gota de agua sobre una placa de oro, el agua se extiende sobre la superficie del metal.

Ahora bien y aunque a simple vista no lo podamos apreciar, la superficie de oro ha sido modificada utilizando monocapas autoensambladas de un alcanotiol, el cual al exponer grupos –CH3 hacia el exterior ha conseguido cambiar las propiedades del oro aumentando de una manera significativa su hidrofobicidad. El segundo gran campo de aplicación de la formación de capas moleculares auto-ensambladas sobre sustratos metálicos está basado en la facilidad con que una superficie puede modificarse con una gran variedad de grupos funcionales. En este contexto, monocapas autoensambladas que acaban en grupos –COOH, -NH2 o –OH son ampliamente utilizadas como punto de partida en estos procesos de síntesis superficial, donde diversos reactivos son incorporados en fases consecutivas. Y así, mediante un control preciso de la reactividad, obtenido gracias a los grupos funcionales involucrados, se van construyendo paso a paso, diversas nanoestructuras con infinidad de aplicaciones potenciales.

 Dependiendo de la naturaleza de la molécula que queramos incorporar, se elegirá para formar la monocapa autoensamblada un compuesto que posea el grupo funcional adecuado. Sigamos con el ejemplo del oro. Si nos interesara la incorporación de una enzima para fabricar un biosensor, elegiríamos un tiol que tuviese como terminación un grupo carboxílico (-COOH) capaz de reaccionar con los grupos amino (-NH2 ) presentes en la enzima. 

En particular, la incorporación de biomateriales (proteínas, ADN u otras biomoléculas) a superficies metálicas mediante monocapas autoensambladas ha suscitado un enorme interés durante los últimos años. Esto es debido fundamentalmente a que los materiales resultantes van a tener una gran aplicación no sólo en el campo de la química o la ciencia de materiales, sino en muy diversas áreas como la biotecnología o biomedicina, como veremos en el capítulo 5.

Nanopartículas
Acabamos de ver cómo el autoensamblado molecular presenta un gran número de aplicaciones. Sin embargo, todos los ejemplos presentados hasta ahora se realizan sobre superficies, y por tanto el dispositivo así construido no tiene movilidad. Esto puede resultar un impedimento para muchas aplicaciones. Imaginemos, por ejemplo, que queremos diseñar un diminuto dispositivo similar a un submarino para, una vez cargado con el medicamento adecuado, introducirlo en el torrente sanguíneo y enviarlo a destruir un determinado virus.

Pues bien, esto se podría conseguir cambiando de soporte y en lugar de utilizar una superficie metálica para incorporar el material biológico, usar nanopartículas inorgánicas capaces de moverse por un medio líquido como, por ejemplo, nuestra sangre.

Como su propio nombre indica, el término “nanopartícula” designa una agrupación de átomos o moléculas que dan lugar a una partícula con dimensiones nanométricas. Es decir, que su tamaño está comprendido entre 1 y 100 nm. Dependiendo de cuáles sean los átomos o moléculas que se agrupan se originarán diferentes tipos de nanopartículas.

Así, por ejemplo, tendremos nanopartículas de oro, de plata o nanopartículas magnéticas, si están formadas por átomos de Fe o Co. Su pequeño tamaño hace que estas estructuras tengan unas propiedades características y esencialmente distintas a las que presenta el material en volumen. En el capítulo 1 ya vimos las repercusiones que puede tener la variación de la relación superficie/volumen.

EEE 4.5 Nanopartículas de oro: ¿Un material nuevo?¿Una copa mágica?
La copa quefFue fabricada probablemente en Roma, aproximadamente en el siglo IV a.C, y representa una escena mitológica. Lycurgus, rey de los tracios era un hombre de temperamento violento que, sin pararse a pensar en las consecuencias, no dudó en atacar al dios Dionisio y a una de sus protegidas. Ésta, llamada Ambrosia, decide vengarse y para ello pide ayuda a la Madre Tierra (Gea), rogándole ser transformada en viña. En el momento en que lo consigue, rodea con sus múltiples ramas al rey, atrapándolo. Esta copa, que bajo la luz del día, y aparte de su belleza y originalidad, no tiene nada mágico, adquiere tintes sobrenaturales cuando la iluminamos desde dentro con la luz de una simple linterna.

En ese momento, la escena mitológica, que hasta entonces habíamos visto representada en tonos verdes y opacos, adquiere una coloración completamente distinta. Tonos rojos, traslúcidos y brillantes se apoderan de la escena en que Lycurgus se bate  ramas que le aprisionan. ¿Será que la Madre Tierra sigue haciendo de las suyas y a golpe de luz ha decidido asustar aún más a Lycurgus? La explicación de este extraño comportamiento hay que buscarla no en la mitología, sino en las pequeñas cantidades de nanopartículas de oro y plata con qué está fabricada la copa, y que son las responsables de sus inusuales propiedades ópticas. Como demuestra la copa de Lycurgus exhibida en el British Museum o las vidrieras de cualquiera de nuestras catedrales, las nanopartículas han sido ampliamente utilizadas a lo largo de la historia fundamentalmente con fines artísticos, aunque los artesanos que las empleaban no conocían su existencia: eran “nanotecnólogos” sin saberlo.

Hoy en día, una vez conocida la química que hay detrás, las aplicaciones de las nanopartículas se han ampliado a mundos tan diversos como, por ejemplo, las pinturas de los coches o la nanomedicina. Hemos visto que un conjunto de átomos forma una nanopartícula, pero si lo que unimos es una sucesión de moléculas orgánicas dispuestas de manera parecida a las ramas de un árbol, formamos un “dendrímero” (del griego dendrón = árbol). El núcleo central en torno al cual se forma el dendrímero puede ser una molécula orgánica o incluso una nanopartícula, que actúe como “semilla”.

 A partir de este núcleo central van creciendo capas de forma radial dando lugar a una macromolécula altamente ramificada. Cada una de las capas añadidas aumenta el radio de la nanoestructura resultante entre 1 y 10 nm, lo que ofrece un amplio abanico de aplicaciones en el nanomundo. El tamaño, forma y reactividad del dendrímero se controlan mediante el tipo de moléculas utilizadas, su grado de ramificación y el número de capas superpuestas. Dada la naturaleza porosa del entramado molecular que se origina, los dendrímeros pueden construirse de tal forma que incluyan en su interior (o expongan sobre su superficie) determinadas moléculas de interés, por ejemplo fármacos o anticuerpos (ver capítulo 5).

EEE 4.6 Materiales fotocrómicos
Existen materiales llamados fotocrómicos que cambian de color o adquieren un color determinado al ser iluminados con luz. Algo así como la copa de Lycurgus moderna. Estos materiales consisten en moléculas orgánicas dispersas en películas delgadas de vidrio. Estas moléculas tienen la capacidad de cambiar de estructura al ser irradiadas con luz y volver a adquirir su estructura inicial al cesar la irradiación. Estos materiales presentan infinidad de aplicaciones desde la decoración hasta sensores lumínicos.

Como comentábamos en el prólogo de este libro, una primera aproximación a lo que “la nanotecnología” puede significar es la situación descrita en la obra “Un viaje alucinante” (ver capítulo 9), donde una nave diminuta se aventura por el torrente sanguíneo con el fin de llegar a una zona dañada del cerebro y repararla.

Pues bien, como veremos en el capítulo siguiente, en cierto sentido las nanopartículas o dendrímeros podrían constituir esa nave que va a actuar como transportador de fármacos hasta un determinado órgano dañado. Tomemos esta idea como ejemplo final: vamos a diseñar un dispositivo que lleve un fármaco hasta una célula cancerígena.

Nuestra versión particular del submarino va a ser una nanopartícula, que debido a su pequeño tamaño pueda desplazarse por el torrente sanguíneo sin taponarlo. Lo primero que necesitamos, está claro, es un motor para el submarino (la nanopartícula). Este motor podría ser el núcleo magnético de la nanopartícula: un
corazón de óxidos de hierro, o de hierro y cobalto.

Así, mediante el uso de campos magnéticos podemos dirigirlo a voluntad desde el exterior del cuerpo. Como estos materiales son tóxicos, previamente a su liberación en el torrente sanguíneo, los recubriremos con una capa de oro que, al ser un metal noble y poco reactivo, no presenta complicaciones para el organismo. Para que esta capa de oro no se despegue podemos utilizar una capa intermedia que mejore la adherencia entre el núcleo y la corteza.

Además, utilizando esta cubierta de oro, podemos aprovechar todos los conceptos que hemos aprendido anteriormente de autoensamblado de moléculas. Esta capa de oro puede ser modificada, por ejemplo, con alcanotioles como si fuesen “pelos” que recubren la superficie de la nanopartícula. Los alcanotioles, a su vez, pueden terminar en moléculas como las usadas en la quimioterapia actual, con lo que lograríamos llevar nuestra carga explosiva hasta el tumor que queremos destruir. Además, gracias al recubrimiento final con moléculas biológicas, podremos lograr que el submarino navegue por nuestro cuerpo sin que sea reconocido por nuestro sistema inmune como un intruso.

5 Nano-biotecnología: en busca de los secretos de la vida
Bacterias llamadas Geobacter sobre una superficie vistas por un microscopio de fuerzas atómicas (AFM). La resolución es tan elevada que se puede ver estructura nanométrica dentro la bacteria.

O, dicho de otra forma, el de la nanociencia y el de la biotecnología. Sin embargo, si lo pensamos un poco, nos damos cuenta de que las moléculas que constituyen los seres vivos son en realidad nano-estructuras, disposiciones tridimensionales de átomos que, aunque sean más o menos complejas, casi siempre tienen un tamaño en el rango de los nanómetros.

Entonces, ¿por qué no atrevernos a combinar lo mucho que se ha avanzado en uno y otro campo para entender mejor la estructura de la materia viva, y para diseñar nano-dispositivos con aplicaciones biológicas? Hoy en día las cosas han cambiado y, precisamente, lo “nanobio” está de moda.
Primera estación: el micromundo
El avance científico siempre ha estado condicionado por los adelantos tecnológicos. Uno de los ejemplos más claros es cómo se ha ido estudiando los objetos progresivamente más pequeños cuando la tecnología ha permitido “verlos” o al menos conocer alguna de sus características, tal como se ha expuesto en el capítulo 2. Esto ha sido fundamental para investigar sobre los componentes de los seres vivos, como veremos a continuación.

Una de las ramas de la biología actual es la microbiología, que se ocupa del estudio de los microorganismos, un enorme grupo de seres vivos microscópicos que existen como células aisladas o asociadas. Precisamente en esta definición ya aparecen varios términos con el prefijo “micro”, que dan una idea del tamaño del que estamos hablando: la micra o micrómetro (μm), que es la milésima parte de un milímetro.

¿Y desde cuándo hemos podido ver los microorganimos y las células individuales? Durante mucho tiempo se sospechó que en numerosos fenómenos naturales y artificiales intervenía algún tipo de criaturas vivas desconocidas, que eran demasiado pequeñas como para ser observadas a simple vista. Algunos de tales procesos eran tan útiles para la humanidad como la fermentación del pan o la cerveza (llevada a cabo por ciertas levaduras) y otros eran tan destructivos como las terribles epidemias de peste que asolaron Europa durante la Edad Media (una pandemia producida por la bacteria Yersinia pestis).

 Sin embargo, poco o nada se sabía entonces acerca de las “criaturas” protagonistas, precisamente por algo tan sencillo como que no se podían observar a simple vista (los humanos no podemos ver objetos que midan menos de unos 50 μm, aproximadamente el grosor de un cabello humano) y ni siquiera con una lupa. Las cosas cambiaron a finales del siglo XVI, con la invención del microscopio.
 Básicamente, los primeros microscopios eran instrumentos muy simples formados por un par de lentes alineadas, una cercana al objeto que se quería observar (llamada por ello “objetivo”) y otra cercana al ojo del observador (llamada “ocular”), separadas entre sí por un tubo hueco de unos 8 ó 10 cm.

Con ellos era posible aumentar la imagen hasta unas 200 veces, aunque debido a lo rudimentario del proceso de fabricación, lo que se observaba aparecía siempre borroso y poco definido. Por cierto, ¿quién inventó el microscopio? Depende a quién le preguntemos: los italianos dirán que fue Galileo Galilei, y los holandeses que Zacharias Janssen.

En cualquier caso, las primeras observaciones importantes al microscopio se hicieron casi cincuenta años después de la invención de este aparato, cuando en 1664, R. Hooke (un científico inglés que también fue famoso por sus polémicas con Newton acerca de quién de los dos había sido el primero en descubrir la gravitación universal) observó una fina lámina de corcho y comprobó que era un material poroso formado por cajas o celdillas que denominó “células”.

El padre de este término que hoy tanto utilizamos había visto células vegetales, pero muertas. Unos años más tarde, el biólogo italiano M. Malpighi observó por primera vez al microscopio células vivas que formaban parte de tejidos de animales y plantas. Más tarde, A. van Leeuwenhoek, que era un experto pulidor de lentes holandés, perfeccionó el dispositivo usando lentes más pequeñas y potentes, construidas con vidrio de mejor calidad y mucho mejor pulidas. Gracias a los casi 500 aumentos de su microscopio, alrededor del 1676 logró observar por primera vez la gran cantidad de microorganismos que contenía el agua estancada. Estaba viendo células vivas individuales de formas muy diferentes, que se movían libremente por el agua. Además, dibujó con mucho cuidado lo que él llamaba “diminutos animáculos”, y en 1683 llegó a observar incluso bacterias.

 Sin embargo, el que hoy consideramos como padre de la microbiología tuvo ciertos problemas iniciales para ser reconocido, ya que tenía por costumbre hacer públicos sus descubrimientos mediante cartas dirigidas a la Royal Society de Londres... pero escritas en holandés y no en la que ya era lengua universal de la ciencia. Así, hubo que esperar hasta 1684 para que sus cartas fueran traducidas al inglés, y con ello este pulidor de lentes logró pasar a la historia de la ciencia. Una curiosidad: van Leeuwenhoek también descubrió que en el semen humano había espermatozoides.

Durante el siglo XVIII los microscopios se fueron perfeccionando sobre todo en sus partes mecánicas, lo que permitió un aumento en su facilidad de uso y estabilidad. Sin embargo, las mejoras de la óptica no llegaron hasta finales del XIX, cuando en 1877 el físico alemán E. K. Abbe publicó su teoría del microscopio y, por encargo del óptico y fabricante de microscopios C. Zeiss, mejoró la microscopía de inmersión sustituyendo el agua por aceite de cedro.

Con ello se podía llegar a un aumento de unas 1000 veces, lo que permitía observar bien las bacterias (cuyo tamaño es de aproximadamente 1 μm) y mejor aún las células eucariotas (con tamaño de entre 10 y 20 μm). En la década de 1920 casi se había alcanzado el límite teórico para los microscopios ópticos (ver capítulo 2), aunque era evidente que las células estaban formadas por componentes aún más pequeños que era necesario estudiar.

Los virus: nanomáquinas que evolucionan
A lo largo de la historia, el descubrimiento de gran parte de los microorganismos conocidos se ha debido a la investigación de las enfermedades producidas por ellos. Así, a mediados del siglo XIX (gracias a los trabajos pioneros de L. Pasteur y R. Koch) estaba bien establecida la existencia de un complejo “mundo microbiano” formado por bacterias, protozoos y hongos. Sin embargo, el propio Pasteur había sido incapaz de encontrar el microorganismo que producía una enfermedad entonces mortal: la rabia.

Esto llevó a pensar que ciertas patologías estaban causadas por entidades infecciosas muy distintas a las caracterizadas hasta entonces, que parecían mucho más simples que las bacterias y demasiado pequeñas para ser observadas con el microscopio óptico. Se trataba de los virus, cuyos primeros representantes fueron descubiertos a finales del siglo XIX: el virus del mosaico del tabaco (que infecta a la planta Nicotiana tabacum, tan apreciada por los fumadores), el virus de la fiebre aftosa (infeccioso para varias especies de animales, entre ellas las vacas), y el virus de la fiebre amarilla (que fue el primer virus patógeno humano descubierto). Una característica común que tenían los virus caracterizados en esa época es que eran capaces de atravesar un filtro con un tamaño de poro microscópico, denominado “filtro de Chamberland”.

Por tanto, el sistema de esterilización por filtración, que había sido efectivo para las demás toxinas conocidas entonces (ya que quedaban retenidas por el filtro) no valía con los virus. Con ello, se ponía de manifiesto una característica fundamental de los virus: su tamaño es muy inferior al de las bacterias, y muchísimo más pequeño que el de las células eucariotas. Era imposible observar los virus utilizando la tecnología disponible, y por tanto se estaba luchando contra un enemigo invisible.

Con la aparición de la microscopía electrónica en la década de 1930 se pudo comenzar a ver virus, y a estudiar su proceso de infección en las células. Desde entonces se han realizado muchísimos estudios sobre los virus, y hoy sabemos que son entidades muy pequeñas, de dimensiones nanométricas (entre 20 y 400 nm), con formas variadas: bastón, espiral, icosaedro, esfera.

Podemos observar imágenes obtenidas por TEM de dos virus emergentes, el de la gripe aviar (A) y el virus Ébola (B), una imagen SEM de dos bacteriófagos (C) y una imagen SEM en la que gracias a un sistema de falso color se observa claramente la diferencia de tamaño entre una bacteria y los bacteriófagos que la están infectando

Durante el último siglo se ha ido profundizando sobre los mecanismos que emplean los virus para infectar a las células y parasitar o “secuestrar” parte de su maquinaria para hacer copias de sí mismos.

Esto ha llevado a plantear una pregunta muy interesante: ¿son los virus seres vivos? A pesar de que en este capítulo se da una posible definición de “vida”, la respuesta a si los virus son seres vivos no es nada fácil. De hecho, los científicos no se ponen de acuerdo en este tema. Por un lado, los virus deberían considerarse seres vivos porque hacen copias de sí mismos, es decir, se replican, y en su descendencia los nuevos virus producidos son distintos entre sí, lo que les permite evolucionar. El hecho de que los virus evolucionan resulta evidente si pensamos en estos ejemplos:

Las personas mayores han de vacunarse todos los años de la gripe (ya que el virus de la gripe que infectó a la población el invierno pasado ha evolucionado y este año es diferente); los enfermos de sida han de cambiar de tratamiento cada ciertos meses (el virus de la inmunodeficiencia humana ha evolucionado y se ha hecho resistente a los fármacos que tomaba el paciente); de vez en cuando aparecen “virus nuevos”, también llamados “virus emergentes”, que pueden producir enfermedades muy graves e incluso pandemias de dimensiones mundiales (como es el caso de una de las cepas del virus de la gripe aviar, que está mutando durante los últimos años e infecta a humanos en vez de a aves). Sin embargo, el hecho de que los virus necesiten siempre células para replicarse, es decir, que sean necesariamente parásitos porque no son capaces de replicarse por sí mismos, hace que no puedan considerarse como seres vivos. Así que la polémica está servida: ¿a qué se parece más un virus, a una bacteria o a un mineral?

Aunque no respondamos a esa pregunta sí podemos investigar mucho sobre los componentes de los virus. Poseen tres partes fundamentales:

1) un genoma, que puede ser de ADN (el mismo ácido nucleico que forma el genoma de todas las células) o de ARN (otro ácido nucleico de estructura diferente);
2) una cápsula o “cápsida” de proteínas que protege al genoma;
3) en algunos virus, una membrana “robada” a la última célula que han infectado. Los virus cuyo genoma es de ARN (como el de la gripe, el Ébola, el del sida o el de la hepatitis C) evolucionan más rápidamente que los que tienen genoma de ADN (como el virus de la varicela, el papilomavirus, el herpes o el de la hepatitis A).

La vida (si es que eso es vida) de los virus es sencilla y a la vez frenética: infectan una célula, se replican en ella, y salen (unas veces rompiendo la célula infectada y otras no) para infectar otras células y continuar el ciclo hasta que no queden más células disponibles. Los virus son nanomáquinas replicativas que han ido apareciendo en la naturaleza y evolucionado en paralelo a las células durante millones de años. Pueden producir diversas enfermedades en los organismos a los que infectan, pero no siempre es así.

A pesar de su mala fama, hay muchísimos más virus beneficiosos que perjudiciales, y la mayor parte de los que nos infectan no nos causan enfermedades. Además, por el simple hecho de saltar de unas células a otras (de la misma especie, e incluso de especies distintas) los virus han ido modificando los genomas de los organismos infectados y han influido directamente en su evolución.
Veamos un ejemplo sorprendente. Cuando hace muy pocos años se ha secuenciado el genoma humano se vio que casi la mitad de nuestra información genética proviene de virus que se han ido integrando en nuestro ADN (mediante estrategias similares a la que usa el virus del sida) a lo largo de la evolución. Es decir, los humanos no seríamos como somos (o tal vez incluso no existiríamos) si no fuera por los virus. ¿Curioso, verdad?

Además los virus, o partes de ellos, también se han utilizado por su potencial para fabricar vacunas y fármacos que nos permiten prevenir o curar las infecciones producidas por esos mismos virus o por otros. Por ejemplo, cuando todos nosotros nacimos y teníamos tan solo dos o tres días, nos pusieron la primera inyección de nuestra vida. ¿Y qué nos inyectaron? Pues precisamente la primera dosis de la vacuna contra el virus de la hepatitis B, obtenida a partir de un componente (de dimensiones nanométricas) de la envuelta de ese virus, que de forma aislada no produce infecciones pero servirá para que nuestro sistema inmune aprenda a reconocer ese virus y prepare sus armas para destruirlo en el futuro si se lo encuentra.

¡Pero estamos hechos de nanocosas!
Como hemos visto en el apartado anterior, los avances logrados en las técnicas de microscopía óptica y electrónica nos han permitido observar células y virus de distintos tipos, e incluso algunos de sus componentes. Sin embargo, siempre hay un “más allá” al que no puede llegarse mediante las microscopías ópticas y electrónicas convencionales, porque los componentes moleculares de los seres vivos no están en el rango de tamaño de los micrómetros (μm) sino en el de los nanómetros (nm).

 Para estudiar este tipo de objetos se han desarrollado algunas modificaciones experimentales de la microscopía electrónica, y además se han ideado tecnologías totalmente diferentes que sí permiten “ver” los nanocomponentes de los seres vivos. Entre estas técnicas están la difracción de rayos X, la resonancia magnética nuclear, los nuevos tipos de microscopía basados en efectos cuánticos y otros sorprendentes avances experimentales, que se describen en el capítulo 2 de este libro.

¿Y qué nos muestran todas estas técnicas sobre los secretos de la vida? En primer lugar, que toda la vida es química (y los sueños, química son), y que los seres vivos son, en su esencia, sistemas organizados de moléculas que se replican, interaccionan con el ambiente y evolucionan. De hecho, de una forma muy parecida es como el Instituto de Astrobiología de la NASA (http://astrobiology.nasa.gov/nai) define el complicado término vida: “sistema químico auto-replicativo, que evoluciona como consecuencia de su interacción con el medio”. Somos química, y las moléculas que nos constituyen tienen el tamaño de nanómetros. Los seres vivos estamos, por tanto, hechos de “nanoobjetos”, pero estos están organizados cuentra.

 Hay varios casos similares de vacunas obtenidas por ingeniería genética a partir de una parte del virus, o de un virus completo pero modificado para que no produzca enfermedades al ser inyectado. Otra aplicación médica muy interesante de los virus es utilizarlos precisamente como lo que son, nanomáquinas muy especializadas capaces de llegar a células concretas y entrar en ellas.

Así, por ejemplo, se están modificando virus para que dentro de ellos haya un fármaco, de tal forma que el virus pueda inyectarse a un individuo enfermo (por ejemplo, con cáncer), llegar al tejido tumoral, entrar en sus células y liberar dentro de ellas su carga explosiva. El empleo de los virus como nanosubmarinos terapéuticos está en fase de investigación, pero podría ser muy importante en el futuro.

Para el desarrollo de alguna de las aplicaciones clínicas de los virus sus propiedades mecánicas han de ser modificadas de forma controlada. Esto se ha logrado recientemente empleando una combinación de técnicas genéticas y de procedimientos nanotecnológicos, que permiten alterar la rigidez y la forma de las cápsidas víricas.

Merece mucho la pena investigar en las propiedades y potencialidades de estas nanomáquinas que la evolución ha puesto en nuestras manos, ya que ningún nanobombardero construido por el hombre podría ser tan eficiente (¡y barato!) como un virus suficientemente “domesticado” y regulados de tal forma que somos capaces de evolucionar. Porque no existe vida sin evolución, como ya C. Darwin demostró hace un siglo y medio. Por cierto, si te preguntas cómo empezó la vida (muchos nos lo
preguntamos), el siguiente cuadro te puede interesar.

Origen de la vida, biología sintética y nanotecnología
El origen de la vida es uno de los temas de investigación más fascinantes que podemos plantearnos, y engloba muchas preguntas difíciles: cuándo y cómo ocurrió, si tuvo lugar en la Tierra o fuera de ella, si ese origen se produjo una sola vez o varias, y si es o no probable que la vida haya comenzado en otros lugares del universo además de en nuestro planeta.

 Tenemos bastante información sobre la cuestión del “cuándo”, y casi todos los especialistas están de acuerdo en que la vida se originó en nuestro planeta hace aproximadamente 3.800 millones de años (es decir, unos 700 millones de años después de que la Tierra se formara). Pero aún hay mucho que investigar, sobre todo acerca del “cómo”, y para ello el científico es una especie de Sherlock Holmes que intenta avanzar lento pero seguro siguiendo dos tipos de pistas.

La primera línea de investigación es la denominada “de arriba hacia abajo” o “de hoy hacia el pasado”, porque se basa en la comparación de los genomas y metabolismos de los organismos que existen en la actualidad, en busca de sus características comunes. Lo común a todos los seres vivos es probablemente lo más antiguo, y tal vez ya estaba presente en una especie celular de la que derivaron todas las demás.

Por supuesto, esa especie ya ha desaparecido y además no sabemos nada sobre ella, pero la llamamos “progenote” o LUCA (siglas en inglés de “último ancestro común universal”). Para investigar sobre cómo podía ser LUCA se están analizando las bacterias que hoy en día tienen un genoma más pequeño, porque tal vez sean las más parecidas a nuestro antepasado.

Además, se realizan simulaciones teóricas en ordenador (de forma similar a como se explica en el capítulo 7) en las que se definen los conjuntos mínimos de genes que podrían ser suficientes para generar algo “vivo”. Y se investiga también en los microorganismos denominados “extremófilos”, que viven en condiciones muy alejadas de las que podríamos considerar normales: lugares con temperaturas de más de 100ºC o menos de -20ºC, a cientos de atmósferas de presión, en aguas muy ácidas o muy básicas, en ausencia de oxígeno, en presencia de sustancias tóxicas o dosis muy altas de radiación…

Los extremófilos tal vez guarden las claves sobre cómo pudo empezar la vida sobre nuestro planeta, que al principio era muy distinto a lo que vemos ahora.

La segunda línea de trabajo sobre el origen de la vida se denomina “de abajo hacia arriba”, y consiste en intentar llegar a la vida desde una química que se va haciendo cada vez más compleja.

El primer experimento que se llevó a cabo para comprobar si se podía pasar de la química a la biología fue muy famoso, y más de medio siglo después sigue apareciendo en todos los libros de texto. Lo ideó y realizó S. L. Miller en el laboratorio de H. C. Urey en 1953, y con él inauguró una disciplina científica que desde entonces se conoce como “química prebiótica”. ¿En qué consistió ese experimento? Miller diseñó un sistema cerrado de matraces y tubos de vidrio, en el que mezcló los gases que entonces se pensaba que habían estado presentes en la atmósfera terrestre primitiva, hace unos 4.000 millones de años: metano, amoníaco, hidrógeno y vapor de agua. Sometió la mezcla gaseosa a descargas eléctricas muy intensas, para simular toda la energía que llegaba a nuestro planeta en aquella época a través del vulcanismo, tormentas e impactos de grandes meteoritos.

Y lo que ocurrió, al cabo de unos días de descargas, es que en el matraz de reacción se había formado una sustancia marrón que cubría sus paredes internas. Cuando Miller analizó esa materia formada descubrió que en ella había bastantes moléculas pequeñas de las que están presentes en los seres vivos, entre ellas muchos de los aminoácidos que forman las proteínas.

¿Curioso, verdad? Con ello se demostraba que es posible obtener, a partir de compuestos inorgánicos muy sencillos como esos cuatro gases, y sin intervención de procesos biológicos, los monómeros o moléculas básicas de la vida. Esta primera etapa del origen de la vida pudo haber ocurrido tanto en la Tierra como fuera de ella, así que tal vez haya formas de vida en otros planetas y satélites.

Por eso, hoy los científicos que trabajan en una disciplina denominada Astrobiología buscan vida en Marte, en Venus, en Europa (satélite de Júpiter), en Titán (satélite de Saturno)... o incluso en otros lugares fuera de nuestro Sistema Solar.

Como combinación de estas dos líneas de investigación sobre el origen de la vida, se ha hecho fundamental estudiar cómo se originaron las moléculas principales de los seres vivos (el ADN, el ARN y las proteínas) y cómo empezó la evolución de la información genética que en última instancia daría lugar a toda la biodiversidad actual.

 Los avances en nanotecnología nos están permitiendo realizar reacciones moleculares en condiciones muy controladas, tanto en disolución como sobre superficies sólidas, y de esa forma se intenta saber lo que pudo ocurrir en el origen de la vida. Por ejemplo, es posible lograr en el laboratorio la unión controlada de aminoácidos para formar una proteína, o de nucleótidos para sintetizar una cadena de ARN, y con ello plantear si algo parecido a estos “autoensamblajes moleculares” pudo ocurrir en el origen de la vida, tal vez sobre la superficie mineral del fondo de los mares.

De hecho, visto desde el campo de la nanotecnología, el origen de la vida no es nada más (¡ni nada menos!) que la aparición de nanomáquinas moleculares capaces de replicarse a sí mismas...

Lógicamente, dado que los científicos son gente con una gran curiosidad, si se llega a determinar con precisión cuál es el número de moléculas necesarias para que exista un organismo vivo que se replica, y si se sabe cómo sintetizarlas a partir de materia inorgánica... el siguiente paso será intentar “fabricar” ese ser vivo.

Como veíamos en el capítulo 1 del libro, esto suena a una nueva edición de Frankenstein, que es ahora mucho más realista que en la obra que Mary Shelley publicó en 1818. Nuestro nuevo Frankenstein, gracias a todo lo que hemos avanzado en el conocimiento molecular de los seres vivos y a la posibilidad de manipular la materia a nivel nanométrico, tiene nuevos recursos para lograr sus objetivos.

A este campo de trabajo, que va en busca de la construcción de seres vivos sencillos en el laboratorio, se le conoce como “vida sintética” o “biología sintética”. Es un tema controvertido dentro y fuera de la ciencia, pero está siendo ya explorado por muchos investigadores.

Por ejemplo, el grupo de C. Venter en el Instituto Craig Venter (Maryland, USA) ha logrado “ensamblar” el genoma de un virus y de la bacteria Micoplasma genitalium a partir de sus “piezas”, previamente sintetizadas en un laboratorio.

 Otros investigadores como D. Endy en el M.I.T. (Massachussets, USA) construyen “nanocircuitos” que en lugar de componentes electrónicos poseen genes capaces de originar algunas de las reacciones metabólicas que sustentan a los seres vivos, mientras que otros como S. Rasmussen en el Laboratorio de Los Álamos (New Mexico, USA) y J.W. Szostak en el Instituto Howard Hughes de Boston (Massachussets, USA) ensamblan agregados moleculares con el objetivo de que lleguen a funcionar como células artificiales.

Un zoom sobre un ser vivo: de lo macro a lo nano sin salir de la charca
Imagina un hipopótamo que vive feliz en una charca de la región de Seronera, en el Parque Nacional del Serengeti, en Tanzania. Este animalito, al que los griegos llamaron “caballo de río”, cuyo nombre científico es Hippopotamus amphibius y que en el idioma de su tierra (el swahili) se llama kiboko, pesa entre 2 y 4 toneladas y mide casi 5 metros de largo.

Es, por lo tanto, un ser vivo imponente, para cuya observación no hace falta ningún tipo de tecnología que nos amplifique. Centrémonos en su gran cabeza cuadrada, de unos 200 Kg de peso. En ella hay dos ojos relativamente pequeños, que nos observan sobre el agua como el periscopio de un gran submarino.

Este órgano, el ojo, tiene pocos centímetros de diámetro, y en él hay diversas partes implicadas en el proceso de la visión. Una de las principales es la retina, que es la más interna de las tres capas del globo ocular y constituye el tejido fotorreceptor. Una de las estructuras de la retina es la llamada “mácula lutea”, con sólo unos milímetros de diámetro (no nos vendría mal una lupa para observarla) y en ella existen, entre otros tipos de células, unas llamadas “bastones”.

Los bastones de la retina de nuestro hipopótamo no son más que un tipo de neuronas, especializadas en captar la luz a niveles bajos de iluminación y responsables de la visión en blanco y negro. Con un microscopio óptico comprobaríamos que su tamaño es de 2 μm de ancho y unos 10 μm de largo. Si tenemos además un microscopio electrónico observaremos que en el interior de los bastones se encuentra el núcleo de la neurona, y en él, multitud de mitocondrias de algo menos de 1 μm de longitud, otros orgánulos y, en la parte que apunta hacia el globo ocular, numerosos discos membranosos apilados.

 Si continuamos el zoom llegaremos al nanomundo: en el citoplasma de esas células trabajan millones de ribosomas, que son agregados de proteínas y ARN con un tamaño de unos 30 nm, así como otros complejos proteicos de tamaño algo menor. En esas dimensiones la microscopía electrónica empieza a ser insuficiente.

Pero vayamos aún más abajo porque sabemos que existen tecnologías con las que es posible hacerlo. En las membranas que forman los discos de los bastones se encuentra la proteína fotorreceptora que le permite ver al hipopótamo: la rodopsina. Está formada por una parte proteica denominada opsina y otra no proteica que es un derivado fotosensible de la vitamina A, llamado 11-cis-retinal.

La opsina es una cadena lineal de unos 350 aminoácidos, que se pliega sobre sí misma y atraviesa siete veces la membrana de 6 nm de grosor que forma el disco. El tamaño de la opsina insertada en la membrana es de unos 20x20 nm2, y cada uno de sus aminoácidos tiene un tamaño aproximado de entre 0,5 y 1 nm. Ya hemos llegado al nanómetro.

Pero aún hay más (o menos, según se mire): si nos centramos en uno de los aminoácidos de la opsina, por ejemplo la lisina a la que está unido el 11-cis-retinal (G), observamos que está formado por sólo 24 átomos: 6 de carbono, 2 de nitrógeno, 2 de oxígeno y 14 de hidrógeno. El tamaño de cada uno de estos átomos es de aproximadamente 0,1 nm.

 Es decir, en unas pocas líneas hemos pasado de los 5 m del hipopótamo a los 10-10 m de cada uno de los átomos que lo forman. Y en el camino hemos aprendido que si nos está observando desde su charca es porque posee nanoestructuras muy especializadas y organizadas en las células de su retina.

Ése es sólo un ejemplo, pero algo general que se aprende al hacer ese zoom es que todos los seres vivos funcionamos gracias a nuestra organización celular y molecular. Es decir, a lo que ocurre en nuestro micromundo y nuestro nanomundo.

Las moléculas de la vida poseen unas dimensiones comprendidas entre menos de 1 nm (las más sencillas, denominadas “sillares estructurales” como aminoácidos, nucleótidos o metabolitos) y los aproximadamente 100 nm de los agregados macromoleculares más grandes, pasando por los 2 nm de diámetro de la doble hélice del ADN que contiene nuestra información genética.


Todos los seres vivos, desde las bacterias más pequeñas hasta los animales y plantas más voluminosos, existen y evolucionan gracias a sus nanoestructuras biológicas. Y esto nos permite dar un paso más: podemos mejorar mucho la medicina actual gracias al conocimiento de nuestro nanomundo.


Manipulando nano-bio-objetos
En la actualidad no sólo se conoce cada vez mejor el nanobiomundo, sino que incluso es posible manejar biomoléculas de una en una para entender cómo funcionan o para moverlas individualmente de un lugar a otro utilizando diferentes estrategias. Esta aproximación resulta radicalmente diferente a la forma de investigar que la biología molecular y la biotecnología han seguido hasta hace pocos años.

En efecto, lo habitual había sido trabajar de manera global con todas las moléculas presentes en una muestra compleja (un fluido biológico o una muestra natural) o pura (una muestra purificada o una preparación de laboratorio de un único tipo de moléculas), lo que en todos los casos suponía el manejo simultáneo de muchos billones de moléculas (diferentes o iguales) y por lo tanto el estudio del comportamiento promedio de las mismas.

Ahora, gracias a los avances de la nanociencia, ya es posible tomar una única molécula aislada (por ejemplo, una proteína, una cadena corta de ADN o un lípido) o un solo agregado molecular (por ejemplo un ribosoma, un cromosoma o un virus) y trabajar con ellos para estudiar su respuesta individual frente a diversos estímulos. Esto resulta especialmente interesante en el caso de la manipulación de moléculas de ADN.

El ADN como nanobiopolímero
La capacidad que nos ofrece la nanotecnología para manipular biomoléculas individuales está permitiendo construir diferentes nanoestructuras utilizando proteínas, lípidos, azúcares y ácidos nucleicos. Entre las aproximaciones tecnológicas actuales, resulta especialmente interesante el uso del ADN como “material de construcción” de nanoestructuras funcionales.

El ADN (abreviatura de ácido desoxirribonucleico, que también se puede escribir como DNA) es la molécula en la que se almacena nuestra información genética, y también la de todos los demás seres vivos celulares y de una parte de los virus. Desde el punto de vista estructural, el ADN es una molécula polimérica formada por monómeros denominados nucleótidos (en concreto, desoxirribonucleótidos).

Cada nucleótido consta de un azúcar llamado desoxirribosa, un grupo fosfato, y una base nitrogenada (también denominada base nucleotídica, o simplemente “base”) que puede ser de cuatro tipos: adenina (A), guanina (G), citosina (C) y timina (T). La secuencia de bases del ADN (por ejemplo, AGCTCAGTGCCGATTACA...) constituye la información genética almacenada en la molécula, y la totalidad de esas “letras” forma el genoma de un organismo. Así, por ejemplo, el genoma del virus de la hepatitis B tiene 3.200 nucleótidos, el de la bacteria Escherichia coli unos 4.600.000 y el de Homo sapiens es un texto con aproximadamente 3.300.000.000 “letras”.

 Durante los últimos 20 años se ha “secuenciado” (es decir, se ha leído ese largo mensaje genético escrito con sólo cuatro letras) los genomas de cientos de seres vivos, y el de nuestra especie se completó casi en su totalidad en el año 2001.

El ADN tiene estructura de doble hélice formada por dos cadenas de nucleótidos cuyas bases nitrogenadas interaccionan entre sí y están orientadas hacia el eje de la doble hélice. La interacción que se establece entre las bases de una y otra cadena es electrostática, de tipo puente de hidrógeno, y obedece a la complementariedad A-T (cuando hay una A en una cadena, en la otra hay una T) y G-C (una G en una cadena implica una C en la otra).

 En su conformación más habitual, el diámetro de la doble hélice del ADN es de 2 nm, y la distancia entre dos bases consecutivas (es decir, la altura de cada peldaño de esa nanoescalera de caracol) es de 0,34 nm. En cada vuelta completa de la doble hélice hay exactamente 10 nucleótidos, por lo que su “paso de rosca” es de 3,4 nm.

El descubrimiento de la estructura y dimensiones del ADN se basó en los datos de difracción de rayos X obtenidos por R. Franklin y M. Wilkins, y en las equivalencias de bases observadas por E. Chargaff. A partir de esos datos experimentales, el modelo de doble hélice fue postulado por J. Watson y F. Crick en 1953, por lo que fueron ambos quienes se hicieron famosos. Ese año, que también pasó a la historia por el primer experimento de química prebiótica realizado por S.L. Miller y por la primera secuenciación de proteínas llevada a cabo por F. Sanger, se considera el punto de partida de la biología molecular.

Dadas sus dimensiones, el ADN es un auténtico nanobiopolímero con el cual es posible diseñar y construir nanoestructuras artificiales con diferentes aplicaciones. Para ello es especialmente útil el hecho de que las cadenas complementarias se unan o “hibriden” entre sí, ya que de esa forma se puede sintetizar una cadena de ADN con la secuencia que se desee (algo que resulta muy sencillo con la tecnología actual) y con capacidad para hibridarse específicamente en una zona predefinida de la hebra complementaria.

De esta forma, los nanobiotecnólogos pueden ensamblar cadenas de ADN parcialmente complementarias entre sí, y con ello construir las bioestructuras que más les interesen. Así, por ejemplo, se han obtenido estructuras ramificadas de ADN con las cuales se aumenta mucho la capacidad de detección de secuencias concretas en una muestra natural.

El ADN ramificado se utiliza en diversos tipos de biosensores usados en medicina, entre los cuales se encuentran los sistemas más sensibles para detectar y cuantificar la presencia del virus del sida en la sangre de los pacientes infectados. Otros investigadores han ideado métodos para fabricar estructuras tridimensionales más o menos complejas con cadenas de ADN, entre ellas poliedros regulares como tetraedros o cubos que se autoensamblan a partir de una disposición plana. Estos nanopoliedros de ADN  pueden incluir otras moléculas en su interior, por lo que poseen numerosas aplicaciones biomédicas y tecnológicas que están empezando a explorarse en la actualidad.

Por otra parte, se conoce bien cómo unir el ADN a otras biomoléculas como proteínas, y también se ha logrado combinar ADN con nanomateriales artificiales como nanotubos de carbono, fullerenos, dendrímeros o nanopartículas. Así, al hibridar dos cadenas complementarias.

Uno de los métodos más prometedores para manipular moléculas biológicas individuales consiste en la funcionalización previa de la biomolécula con otro tipo de molécula o con una nanoestructura (por ejemplo, un nanotubo de carbono o una nanopartícula).

Así, por ejemplo, si se une una nanopartícula a una proteína o a una cadena de ADN (generalmente a través de otra pequeña molécula que actúa como “puente”), el mayor tamaño y estabilidad de la nanopartícula permite manipular mucho más fácilmente la biomolécula en cuestión dentro de la disolución que la contiene.

La forma más desarrollada para manipular y mover biomoléculas individuales funcionalizadas se basa en el uso de un instrumento denominado “pinzas ópticas” (también conocido como “trampa óptica”), puesto a punto por A. Ashkin en 1970.

 Las pinzas ópticas consisten en el empleo de un rayo láser muy focalizado para atrapar y mover partículas dieléctricas (es decir, no conductoras de la electricidad) sin necesidad de “tocarlas” físicamente (a los aficionados a la ciencia-ficción, esto les recordará el rayo transportador de Star Trek).

 Las pinzas de ADN una de ellas puede estar unida a una proteína, un nanocomplejo orgánico o una nanopartícula metálica. De esta forma, por ejemplo, si hibridamos una hebra de ADN inmovilizada sobre una superficie a otra cadena complementaria que lleve unido en su extremo un nanotubo de carbono... lo que logramos es guiar el nanotubo hasta el punto concreto de dicha superficie en el que estaba la primera hebra de ADN.

Recordemos que en el capítulo 3 se decía que uno de los principales problemas para el desarrollo tecnológico de los nanotubos es la dificultad para posicionarlos de manera controlada: el uso de ADN como “transportador” puede ser la solución. Por otra parte, la funcionalización de ADN con otras biomoléculas o con nanoestructuras artificiales permite promover o aumentar la capacidad de los ácidos nucleicos para formar monocapas autoensambladas sobre diferentes materiales.

Esta estrategia permite el desarrollo “capa a capa” de nuevos tipos de biosensores ultrasensibles. Para terminar, y como un ejemplo de la interdisciplinaridad de la nanociencia, puede indicarse que muchos investigadores se preguntan actualmente si además de las capacidades que presenta el ADN para almacenar información y para reconocer específicamente moléculas complementarias, la molécula de ADN podría ser utilizada como un conductor eléctrico.

Como veremos en el capítulo 6, la cuestión de la conductividad del ADN no es trivial.
Experimentos de AFM con una punta conductora han mostrado que la hebra sencilla no conduce, mientras que la doble hélice sí lo hace. Sin embargo, otros investigadores cuestionan estos resultados y proponen que el ADN no conduce la electricidad en ningún caso.

A esta discrepancia se une el hecho de que los cálculos teóricos (ver capítulo 9) realizados en paralelo son también contradictorios. Por tanto, a día de hoy, saber si podremos tener nanocables de ADN por los que pueda transportarse la corriente eléctrica es un tema abierto en nanociencia.

Las pinzas ópticas son instrumentos muy sensibles, capaces de manipular y detectar desplazamientos y rotaciones subnanométricos en objetos de tamaño comprendido entre aproximadamente 100 nm y 10 μm (es decir, un rango que incluye desde nanopartículas y agregados moleculares hasta orgánulos celulares y células completas).

Por ello, esta técnica resulta muy adecuada para atrapar y mover, por ejemplo, una nanopartícula que se ha unido a la biomolécula individual de interés. Esto permite la investigación de un gran número de procesos bioquímicos y biofísicos, desde las propiedades mecánicas de los biopolímeros hasta el funcionamiento de las diferentes nanomáquinas y nanomotores moleculares que trabajan en el interior de las células.
Por ello, las pinzas ópticas están llamadas a protagonizar muchos desarrollos tecnológicos del siglo XXI.

La manipulación de ácidos nucleicos y proteínas funcionalizadas con nanopartículas ha sido especialmente desarrollada por el grupo de C. Bustamante en la Universidad de Berkeley, utilizando la técnica de pinzas ópticas. También se ha empleado una variante de la tecnología de AFM (ver capítulo 2) en la cual la punta del AFM se une (directamente o a través de otra molécula que actúa como puente) a uno de los extremos de la biomolécula bajo estudio.

 De esta forma se logra “pescar” proteínas o ácidos nucleicos como si usáramos una microcaña (la micropalanca de AFM) provista de un nanoanzuelo (la punta reactiva),  a continuación se mide la fuerza con la que debemos tirar. Mediante estos procedimientos se ha logrado, por ejemplo, hibridar y des-hibridar de manera controlada hebras de ADN complementarias.

Además se ha podido estirar, comprimir, doblar, desenrollar o “superenrollar” (es decir, enrollar aún más) cadenas sencillas o dobles de ADN y de ARN. La medida de la fuerza requerida para cada proceso nos informa sobre la elasticidad de los ácidos nucleicos y sobre el tipo de enlaces que mantienen su nanoestructura funcional.

Estas técnicas también se han utilizado con éxito en el estudio del plegamiento de determinadas proteínas hasta llegar a su forma biológicamente activa y en la cuantificación de la fuerza necesaria para desplegar los distintos dominios estructurales en que se organizan las proteínas. No cabe duda: la nanotecnología está revolucionando el modo de analizar las características biofísicas de los polímeros
que constituyen la vida.

¡ADN sin burbujas para celebrar la infección!
Una situación más complicada se produce al final del proceso infectivo del virus, cuando Phi29 debe empaquetar su genoma en la cápsida antes de salir de la célula
y estar listo para infectar a la siguiente. Para ello es necesario que, desde el propio virus, algún tipo de motor “tire” del ADN y lo empuje dentro de la cápsida.

Dicho bionano- motor existe, se localiza en el cuello o conector del virus, y se ha caracterizado a nivel molecular: está formado por una serie de proteínas y moléculas de ARN que cambian coordinadamente su forma para realizar una fuerza o “torque” que se traduce en un esfuerzo de tracción sobre el ADN viral. De hecho, el motor situado en el conector de los bacteriófagos es uno de los más potentes que pueden existir. Para saber cómo funciona, C.

 Bustamante y su grupo de investigación en la Universidad de Berkeley (California, USA), lograron unir el ADN del virus a una nanoparticula, la cual podían sujetar mediante pinzas ópticas. El nanomotor del virus tiraba de un extremo de la molécula de ADN para introducirlo en su cápsida, y a la vez los investigadores tiraban de la nanopartícula unida al otro extremo. En expresión del propio Bustamante, era “como tirar de la cola de un gato que quería escaparse”.

 O, dicho de otra forma, en el laboratorio se estaba jugando al “soga-tira”... ¡pero en versión nano! ¿Y al final quién ganó, el virus o los científicos? Vencieron los investigadores, pero para ello necesitaron aplicar una fuerza mayor de los aproximadamente 70 picoNewtons que realiza el motor del virus. Puede parecer poco, pero esa es una fuerza inmensa: si escaláramos ese nanomotor a las dimensiones habituales en los motores de las máquinas “humanas” o de nuestros coches, sería capaz de arrastrar 6 aviones de carga. Impresionante, ¿verdad?

Hacia la nanomedicina
Gracias a los avances experimentales descritos hasta este punto, la nanomedicina (también llamada nanobiomedicina) está dejando de ser ciencia-ficción para convertirse en una realidad esperanzadora.

La nanomedicina consiste básicamente en utilizar el conocimiento molecular de los seres vivos y la posibilidad de fabricar dispositivos de dimensiones nanométricas para mejorar la salud humana, tanto en el ámbito de la terapia (diseño y liberación de fármacos, construcción de nanomateriales biocompatibles, medicina regenerativa, mejora de técnicas terapéuticas) como en el del diagnóstico (incremento de sensibilidad y especificidad de técnicas convencionales, fabricación de nanobiosensores).

Uno de los campos más prometedores de la medicina en el siglo que estamos comenzando es la denominada “nanomedicina regenerativa”, que consiste en el desarrollo de tejidos mixtos entre moléculas biológicas y materiales inorgánicos nanoestructurados.

 Esto está resultando muy útil para la construcción de prótesis e implantes sin problemas de rechazo, para organizar la matriz extracelular de los tejidos y para dirigir la proliferación y diferenciación celular.

Como ejemplo, se están utilizando superficies provistas de nanoestructuras de adhesión para hacer crecer sobre ellas monocapas de células y tejidos concretos, que luego se pueden trasplantar a los pacientes. También se han desarrollado nanofibras artificiales de péptidos, que poseen un diámetro de unos 7 nm y son capaces de autoensamblarse y solidificar la solución en la que estaban disueltos, lo que permite reconstruir tejidos humanos dañados. 

Otros investigadores trabajan sobre nanopolímeros que se pueden emplear para recubrir dispositivos artificiales que van a estar en contacto con la sangre (como válvulas cardíacas o catéteres), de forma que se impida o dificulte la formación de coágulos. Estos y otros avances hacen albergar muchas esperanzas sobre el papel de la nanotecnología en la medicina regenerativa.

Otra de las líneas de investigación en nanomedicina se basa en que al poder manipular las moléculas biológicas ha sido posible construir “nanointerruptores” con los que se logra, por ejemplo, activar o desactivar un determinado gen, una cascada de regulación génica, o todos los genes que producen las proteínas implicadas en una ruta metabólica. Ello podrá servir, en el futuro, para ralentizar o anular procesos celulares asociados con enfermedades.



Nanosubmarinos y nanorobots en nuestro cuerpo
Una de las aplicaciones más prometedoras de la nanotecnología en medicina consiste en el diseño de dispositivos de tamaño menor que las propias células de nuestro cuerpo, capaces de dirigirse con precisión a un tejido enfermo y liberar en él los fármacos necesarios para sanarlo.

Con ello se logra aumentar la estabilidad, solubilidad y biodisponibilidad del fármaco, y además disminuir los efectos secundarios que produciría en otros tejidos. Esto es ya una realidad, y las empresas farmacéuticas lo saben bien: actualmente se comercializan más de 150 fármacos en forma nanoestructurada, empleando diversos tipos de “nanovehículos” o “nanosubmarinos” para su administración por vía oral, intravenosa, inhalada o tópica. Entre las estrategias utilizadas, algunos investigadores han construido vesículas artificiales o liposomas, que son una especie de “mini-células” de entre 20 y 100 nm de diámetro, que no tienen núcleo ni ningún otro orgánulo celular, sino únicamente una membrana lipídica y un líquido en su interior en el que está disuelto el fármaco que se quiere liberar en la célula enferma.

En la membrana de esa vesícula se puede haber insertado previamente proteínas de reconocimiento que la dirijan hacia su célula diana. Esto también se puede lograr (como se indica en el primer cuadro específico de este capítulo) empleando un virus modificado, al que se ha extraído o inactivado el genoma para que no sea infeccioso y sirva únicamente como un vehículo de transporte especializado.  Cuando la vesícula o el virus modificado llegan a la célula, sus membranas se fusionan y la carga explosiva se libera en el interior celular.

Como siempre ocurre en ciencia, es más fácil decir esto que hacerlo, pero ya existen ejemplos en los que la liberación controlada de fármacos ha funcionado muy bien. También se está investigando sobre la posibilidad de encapsular las moléculas activas en el interior de fullerenos o de hacerlas migrar a lo largo de nanotubos de carbono (descritos ambos en el capítulo 3).

Otra línea de investigación muy importante en este campo consiste en la fabricación de bio-dendrímeros o de bio-nanopartículas. Como se indica en el capítulo 4, los dendrímeros son nanoagregados esféricos formados por capas concéntricas de un polímero orgánico, mientras que las nanopartículas están compuestas por metales u óxidos metálicos, en ocasiones recubiertas por capas exteriores de distintos materiales.

 Las nanopartículas de mayor aplicabilidad en biomedicina están fabricadas con metales nobles (oro, plata o sus aleaciones), ya que son los más inertes en el organismo y por lo tanto en principio no producen problemas de toxicidad al estar en contacto con nuestro cuerpo. En la superficie de los dendrímeros o de las nanopartículas se puede insertar distintos tipos de biomoléculas (por ejemplo anticuerpos o cadenas cortas de ADN) que sirvan para detectar un tipo de célula humana concreta o para unirse a un microorganismo patógeno.

 Si nos interesa, también podemos unir a la superficie (o integrar dentro de la estructura del dendrímero o de la nanopartícula) el fármaco que queremos llevar a un lugar concreto.

En ocasiones, las partículas tienen un núcleo de un material diferente, que las dota de unas características adicionales de interés. Por ejemplo, existen nanopartículas con un núcleo magnético (de óxido de hierro u otros metales) que las convierte en auténticos “nanoimanes” recubiertos por biomoléculas.

Esos nanobioimanes son capaces de viajar por el organismo sin más que aplicar un campo magnético desde el exterior. ¿Un médico moviendo un imán por nuestro cuerpo hasta llegar a la zona enferma en la que tiene que actuar el nanosubmarino que circula por nuestras venas? Sí, algo tan espectacular, será pronto posible.

Una vez han llegado al lugar deseado del cuerpo, esas nanopartículas podrán servir también para aumentar enormemente el contraste de las pruebas diagnósticas basadas en resonancia magnética nuclear y con ello, por ejemplo, detectar los tumores en etapas muy tempranas de formación. Además, las nanopartículas metálicas permitirán destruir tejidos cancerosos o infectados mediante procesos de “ablación térmica”: se las hace vibrar a mucha velocidad mediante fuerzas electromagnéticas, lo que produce un elevado aumento de la temperatura muy localizado en la zona del organismo a la que se había llevado las partículas.

Estamos hablando de conceptos muy novedosos: medicina personalizada y focalizada a puntos concretos del cuerpo. No obstante, hemos de ser muy cautos con estas nuevas herramientas de la nanomedicina, que hasta el momento se han desarrollado en cultivos celulares y animales de laboratorio.

Como requisito imprescindible antes de dar el “salto” a la clínica, en la actualidad se está investigando (mediante ensayos clínicos muy controlados en humanos) sobre la toxicidad que las nanopartículas y otros nanocompuestos podrían generar en nuestro organismo, su estabilidad en distintos fluidos, las reacciones que desencadenan en nuestro sistema inmune, y los efectos secundarios producidos a distintas dosis (ver cuadro de eco-toxicologia en capítulo 9).


R. A. Freitas (uno de los padres de la nanomedicina), junto con su grupo en el Instituto de Fabricación Molecular de California, ha desarrollado una especie de glóbulo rojo artificial denominado “respirocito”. Este nanorobot posee un diámetro de 1 μm y tiene la capacidad de almacenar y liberar hasta 236 veces más oxígeno que un glóbulo rojo natural. Los respirocitos llevan incorporados sensores químicos y de presión, y los médicos podrían manipularlos, activarlos o desactivarlos empleando ultrasonidos. Según el creador de estos nanorobots, una inyección de respirocitos nos permitiría bucear “a pulmón” durante dos horas y media... e incluso vivir con el corazón parado durante 4 horas. Veremos si en el futuro algo tan sorprendente es posible.

En cualquier caso, Freitas y su grupo no se han quedado ahí, sino que proponen la posibilidad de fabricar otros nanorobots, entre ellos los denominados “microbívoros”: una especie de fagocitos artificiales capaces en teoría de destruir cualquier microorganismo de nuestro torrente sanguíneo, mil veces más eficientemente que las células de nuestro sistema inmune.

Es muy improbable que esto llegue a hacerse realidad en la práctica, ya que nuestro sistema inmune (como todos los componentes de los seres vivos) es el resultado de más de 3.500 millones de años de evolución biológica y de un minucioso proceso de optimización de su sensibilidad y especificidad, llevado a cabo gracias a la selección natural.

La bionanotecnología está avanzando muchísimo en la construcción de nanodispositivos que imitan o mejoran ciertas capacidades de los seres vivos, pero la robustez, adaptabilidad y versatilidad de los sistemas biológicos complejos (en este caso, el sistema inmune) es por el momento inalcanzable para los nanotecnólogos. No obstante, como se muestra en el capítulo 8, la imaginación es la principal aliada de la investigación, y el futuro aún no está escrito...

El fabuloso mundo de los nanobiosensores
Los biosensores son dispositivos de análisis que nos permiten detectar específicamente una sustancia. Así por ejemplo podemos utilizarlos para analizar la composición o características moleculares de los seres vivos, o detectar si un determinado microorganismo está presente en un ambiente. Sus partes principales son una zona sensora o reactiva, formada por un elemento de reconocimiento biológico (ácido nucleico, anticuerpo, enzima...) capaz de unirse específicamente a la sustancia que se quiere detectar.

 Éste está acoplado a un sistema transductor que permite procesar la señal (óptica, eléctrica, mecánica o de otro tipo) producida por la interacción entre el elemento de reconocimiento y la sustancia buscada. La unión de estos dos mundos opuestos, el vivo y el inerte, es lo que confiere a los biosensores sus características especiales de selectividad y sensibilidad.

Existen muchísimos tipos de biosensores diferentes, y sus aplicaciones actuales son ya numerosas en los campos de la biotecnología, la salud, el medio ambiente y la alimentación.

Uno de los tipos de biosensores más utilizados en la actualidad son los denominados “microarrays” o “biochips”. Se construyen depositando cientos o miles de biomoléculas (generalmente proteínas o cadenas cortas de ADN) sobre una superficie sólida (por ejemplo de vidrio, silicio u oro), en posiciones y concentraciones conocidas.

Cada punto está separado de sus vecinos por unos 100 o 150 μm. La muestra problema que se quiere analizar se marca con un reactivo fluorescente, de forma que cuando se ponga en contacto con el biochip quedará unida a unas de las moléculas sensoras y no a otras, y producirá una señal fluorescente en esos puntos.

Las aplicaciones de los biochips son numerosas en la actualidad: determinación de la biodiversidad microbiana presente en un ambiente concreto, detección de bacterias contaminantes en el agua o en un alimento, descubrimiento de mutaciones en una bacteria o un virus que les hacen resistentes a los fármacos que toma un paciente infectado, análisis de nuestra mayor o menor propensión a padecer cáncer y un largo
etcétera.

A pesar de la gran utilidad actual de los microarrays, la ciencia sigue avanzando y ya se están desarrollando otros biosensores, aún más pequeños y potentes. Se basan, una vez más, en las nuevas posibilidades que la nanotecnología pone en nuestras manos, y que por ejemplo nos permiten separar las moléculas sensoras no unos cientos de micrómetros sino sólo unos pocos nanómetros. Por ejemplo, se dispone ya de “nanoarrays” de proteínas o de ADN formados por puntos de 100 nm de diámetro,
y se han desarrollado sensores formados incluso por moléculas individuales unidas a una superficie.

Así, todo el proceso de detección puede hacerse en mucho menos espacio, y es posible realizar el análisis partiendo de cantidades muy pequeñas de muestra. Por otra parte, los nanoarrays permiten utilizar técnicas de detección distintas a la fluorescencia, y algunos de ellos ni siquiera requieren marcaje alguno de la muestra que se va a analizar.

Esto resulta muy importante, porque se ha comprobado que si no es preciso marcar ni modificar previamente la muestra, la sensibilidad de detección mejora considerablemente. Con todo ello, una de las ideas actuales es poder desarrollar un nanochip provisto de miles de puntos sensores que pudiera ser integrado en nuestro organismo y analizar en tiempo real los componentes de nuestra sangre sin necesidad de requerir extracciones de sangre.

Además de los nanoarrays, la llegada de la nanotecnología al mundo de los biosensores ha permitido construir sistemas analíticos totalmente diferentes a los conocidos hasta hace una década. Así, por ejemplo, se ha desarrollado un aparato basado en nanohilos de silicio capaz de detectar y caracterizar virus concretos mediante los cambios en conductividad eléctrica que estos producen al unirse a un nanocable sumergido en una muestra líquida natural (agua, saliva, sangre…). Otra línea de investigación consiste en unir los receptores olfativos (proteínas quimiosensoras de dimensiones nanométricas) de nuestra pituitaria a un dispositivo electrónico, de forma que se obtenga un sensor capaz de “oler” artificialmente.

Dichos nanosensores olfativos artificiales, también llamados “narices electrónicas” poseen aplicaciones clínicas (para implantarlos en personas con el sentido del olfato atrofiado o alterado) y también industriales (por ejemplo, para detectar la presencia de una sustancia tóxica en el aire, para analizar perfumes de manera sistemática, o para oler vinos sin la subjetividad del catador).

Con todo ello, los avances actuales están permitiendo fabricar auténticos “laboratorios en miniatura” (que en inglés se conocen como sistemas “lab on a chip”), en los que lo que antes requería el trabajo de varias personas en un laboratorio entero se reduce a un dispositivo automático formado por numerosos nanobiosensores, conductos y actuadores integrados en un tamaño menor que el de un teléfono móvil. El futuro ya está aquí... ¡y cada vez ocupa menos!

Nano-electrónica: del silicio a las moléculas
6

Miremos a nuestro alrededor, en casa, en la calle, en el instituto, en la oficina o mientras viajamos en un automóvil. Es raro estar en un sitio donde no nos encontremos un aparato o un dispositivo electrónico.

Relojes, teléfonos fijos y móviles, reproductores de DVD y de música, cámaras fotográficas, ordenadores, pantallas, vehículos, electrodomésticos, cajeros automáticos: todos ellos contienen sofisticados componentes electrónicos.

La electrónica, junto con los avances en medicina y el desarrollo de los medios de transporte, ha ido cambiando a lo largo del siglo XX nuestra forma de vida. ¿Cómo se inició todo este “boom” electrónico? ¿Cómo hemos llegado hasta aquí? ¿Podremos seguir más tiempo siendo testigos del auge de la electrónica? Este capítulo trata de responder a estas preguntas y mostrará el papel primordial que jugará la nanotecnología en el desarrollo de los futuros dispositivos electrónicos.

El siglo XX: la era de la Electrónica

Muy poco después, J. Kilby de la empresa Texas Instruments, en 1958, y R. Noyce, de la empresa Fairchild Camera and Instruments, en 1959, demostraron que, en lugar de fabricar los transistores de uno en uno para luego ser ensamblados en el dispositivo que se deseaba construir, era más sencillo fabricarlos de forma simultánea sobre una oblea de silicio incorporando además otros elementos como resistencias y condensadores.

 Por este planteamiento, que hoy llamamos “circuito integrado”, Kilby recibió el Premio Nobel de Física en el año 2000. Toda la electrónica basada en el uso de semiconductores se suele denominar “electrónica de estado sólido” en contraposición a la “electrónica de vacío”.

EEE 6.1 Transistor, chip, circuito impreso, circuito integrado.
 ¡Qué lío!
Vamos a intentar aclarar las palabras que se utilizan en la jerga de la microelectrónica. Los componentes básicos con los que se hace un circuito electrónico son transistores, diodos, condensadores y resistencias.

Cada uno de ellos realiza una función precisa respecto a los electrones. En la figura siguiente podemos identificarlos sobre una de las tarjetas extraída de un ordenador personal, tal vez como el tuyo.

Al principio, todos estos componentes se unían mediante pequeños cables eléctricos, pero en cuanto los circuitos se complicaron esto resultaba un verdadero lío. Así surgió la idea de colocar los componentes sobre una lámina de plástico duro, y unirlos por la parte de atrás mediante pequeñas pistas de cobre dibujadas en la lámina.

Esto es lo que se denomina “circuito impreso”, que no es más que la propia lámina de plástico donde están los contactos de cobre. Sin embargo, recientemente, todo esto se ha complicado un poco más: en lugar de utilizar un circuito impreso donde se colocan todos los componentes, se utiliza un único trozo de silicio donde se han integrado todos los componentes juntos. Esto es lo que se llama circuito integrado o chip. Los circuitos integrados se basan en el adecuado uso del silicio (tipo n y tipo p), combinado con regiones aislantes de óxido de silicio (que constituyen barreras para el paso de las cargas) y con regiones formadas por ciertos metales que permiten hacer buenos contactos.

La combinación de estas diferentes regiones hechas con materiales distintos permite fabricar diodos, transistores, condensadores, etcétera. Los circuitos “se dibujan” mediante complejas técnicas de litografía, máscaras, plantillas, y sustancias que actúan como reveladores (de forma similar a lo que ocurre en procesos fotográficos tradicionales). Las técnicas de litografía actuales son capaces de plasmar sobre la superficie de silicio motivos de tamaño nanométrico (ver el capítulo 2).

Como ejercicio te proponemos que intentes identificar los distintos componentes en un circuito electrónico que encuentres. La figura 6.2 te proporciona una pista. El desarrollo del circuito integrado introdujo un nuevo concepto: la miniaturización de los dispositivos electrónicos.

La idea que hay detrás de la miniaturización es muy sencilla: ¿cómo logramos que un electrón viaje más rápidamente por un circuito de forma que se aumente la velocidad de los dispositivos? La respuesta es sencilla: disminuyendo la distancia que tiene que recorrer el electrón. ¡Más pequeño significa, en este caso, más rápido! Desde 1960, aproximadamente, se inició una carrera enloquecida por empaquetar el mayor número de componentes electrónicos en los circuitos integrados que encontramos en los procesadores, los  “chips”.

 La capacidad de integración ha ido creciendo vertiginosamente (exponencialmente) de tal manera que el número de transistores que es posible incorporar por unidad de superficie se duplica cada 18 meses como ya se ha mencionado en el primer capítulo.

 Esta impresionante progresión, pronosticada por el cofundador de Intel, G. Moore, ha sido imparable durante casi medio siglo. Por ejemplo, los procesadores Intel Xeon 7100 que se usan en potentes servidores de cálculo cuentan con 1300 millones de transistores y ya se ha anunciado que a finales de 2008 varias empresas (Intel, IBM, Infineon, Samsung, Sun Microsystems, o Chartered Semiconductor) fabricarán procesadores con cerca de dos mil millones de transistores funcionando a frecuencias superiores a los 3,5 GHz.

La mayor parte de los transistores que se comercializan en la actualidad están fabricados con la llamada tecnología MOSFET (siglas del término inglés “Metal Oxide Semiconductor Field Effect Transistor”) y poseerán una longitud de “canal” (región conductora que une la fuente y el drenaje de electrones) de tan sólo 45 nm.

En el año 2000 la longitud de canal de los transistores MOSFET era típicamente de unos 180 nm. ¡Esta longitud se ha hecho cuatro veces más pequeña en menos de ocho años! Por tanto, puede afirmarse que la nanotecnología ya ha irrumpido en el mundo
de la electrónica basada en el silicio.




¿Algún día dejarán de usarse los semiconductores para fabricar
“chips”?
La tecnología actual se basa en el uso de materiales semiconductores como el silicio para fabricar dispositivos. Un semiconductor en un material que se comporta como un aislante a bajas temperaturas y como un conductor a altas temperaturas. El silicio es el principal material semiconductor que se utiliza en la fabricación de dispositivos electrónicos.

 Su uso masivo se debe a su relativo bajo coste por encontrarse en abundancia en la superficie terrestre como en el cuarzo o en la arena de las playas. Sin embargo, el silicio no es uno de los mejores semiconductores ya que requiere elevadas temperaturas o grandes campos eléctricos para transportar la electricidad de manera eficiente.

 Para mejorar sus propiedades conductoras es necesario dopar (contaminar) el silicio puro con otros elementos químicos (llamados dopantes) que le ceden electrones o “huecos” (un tipo especial de portadores de carga positiva que en realidad no son más que la ausencia de carga negativa).

 De esta forma se logran semiconductores de “tipo n” (con elementos dopantes que proporcionan electrones como el fósforo o el arsénico) y de “tipo p” (con dopantes que proporcionan huecos como el galio o el boro). La densidad típica de los elementos dopantes del silicio es de 1013-1018 átomos dopantes por cm3 de silicio. Esta densidad es relativamente pequeña comparada con la del silicio (unos 5×1022 átomos por cm3).

Esto es así para que los átomos dopantes que se introducen en el silicio cedan suficientes portadores de de carga, sin cambiar las propiedades fundamentales del material anfitrión. Un cálculo sencillo permite determinar que en un pequeño cubo de silicio dopado de 100 nm de arista podemos encontrar típicamente entre 0,01 y 10 átomos de especie dopante, frente a los 5×107 átomos de silicio.

Si se disminuye el tamaño del cubito de silicio tenemos menos probabilidad de encontrar portadores de carga en él. A medida que hacemos los circuitos con transistores con partes más y más pequeñas nos encontramos con un grave problema: ¡No hay portadores (electrones o huecos) de carga disponibles! ¡Y sin electrones no hay electrónica!

EEE 6.2 Densidades críticas de dopantes en el silicio
Supongamos que tenemos silicio dopado de tal manera que sabemos que en cubo de silicio de 100 nm de arista nos encontramos, en promedio, con una única impureza que cede carga (es decir un único átomo dopante).

Estamos, pues, ante la concentración mínima o densidad crítica que permite encontrar una carga en ese pequeño cubito de material. Por debajo de esta concentración podemos tener problemas para encontrar electrones dispuestos a transportar electricidad.

En este caso concreto expresar la densidad de impurezas en átomos por centímetro cúbico, sabiendo que la densidad del silicio es aproximadamente de 5×1022 átomos por cm3.

Supongamos ahora ese único átomo dopante se encuentra en un cubito de silicio de 10 nm de arista y queremos asegurarnos de tener, al menos, una impureza. ¿Cuál es la densidad crítica? Determinar en ambos casos la relación entre el número de átomos de silicio y de impureza.

Por lo tanto, cuando se fabriquen transistores con dimensiones inferiores a cierto tamaño crítico, el silicio ya no nos será útil en la carrera de la miniaturización y estaremos obligados a buscar nuevas alternativas.

 Estudios recientes, elaborados por las asociaciones que reúnen a las principales empresas de electrónica, afirman que podremos seguir usando la tecnología del silicio hasta conseguir unas densidades de empaquetamiento cercanas a los 250.000 millones de transistores por chip, ¡125 veces mayores que las que encontramos en los procesadores actuales! Además, se calcula que esta situación se alcanzará a finales de la siguiente década.

Lo que es seguro es que las tecnologías que remplacen a las basadas en el silicio estarán vinculadas a la nanotecnología. Dado que la implantación de nuevas tecnologías y nuevos métodos de fabricación es un proceso costoso y relativamente lento, hay que pensar ya, desde este mismo momento, cómo vamos a poder seguir incrementando el poder de nuestros dispositivos electrónicos en el futuro.


EEE 6.3 Almacenamiento masivo
En el capítulo 1 ya se introdujo el concepto de “bit” (que no debemos confundir con 1 byte, ya que 1 byte =1 B= 8 bits). Pero ¿cómo de pequeño es un bit? Como ejercicio, determinar el tamaño típico asociado a un bit de información en un CD de 700 MB de capacidad y en un DVD de 4,7 GB.

Supongamos ahora que somos capaces de almacenar un bit de información en un nanómetro cuadrado. En este caso ¿cuánta información podría almacenarse sobre una superficie igual a la que tiene un CD actual? Si, en promedio, una canción en formato MP3 ocupa 5 MB y tiene una duración de 4 minutos ¿cuántas canciones podemos almacenar en este nuevo tipo de super-CD? Y, por cierto, ¿cuánto tiempo tardaríamos en escuchar todas las canciones de este super-CD?

Cuando la ley de Ohm da problemas: transporte balístico
Ya hemos visto que cuando disminuimos el tamaño de los dispositivos basados en la tecnología del silicio comienzan los problemas y podemos encontrarnos sin electrones que transporten la corriente: ¡sin actores no hay función de teatro! Sin embargo hay otros fenómenos que también pueden condicionar el funcionamiento de los dispositivos y que se derivan de la propia naturaleza cuántica de la materia.

Dichos fenómenos se hacen más evidentes cuando los objetos tienen unos pocos nanómetros de tamaño. La corriente eléctrica tampoco escapa de este extravagante comportamiento y empieza a poseer fascinantes (y útiles) propiedades. Algunas de estas propiedades están recogidas en el cuadro dedicado a la mecánica cuántica del capítulo 1.

Para entender lo que sucede a escala nanométrica vamos, en primer lugar, a describir el transporte eléctrico en un conductor macroscópico. Supongamos, como ejemplo, que tenemos un cable metálico convencional, como el hilo de cobre que se usa en una instalación eléctrica.

Cuando aplicamos con una batería o una pila una diferencia de potencial, o voltaje, V entre los extremos del cable, los electrones se ven sometidos a un campo eléctrico y a la correspondiente fuerza eléctrica. Como cualquier partícula en presencia de una fuerza externa, los electrones se aceleran (siguiendo las leyes de Newton) y aumentan su velocidad a medida que transcurre el tiempo. Sin embargo, este incremento de velocidad de los electrones se ve truncado porque en su camino colisionan con diversos obstáculos.

Estas colisiones son de tipo inelástico y hacen perder a cada electrón parte de su energía. La energía perdida se cede a los átomos del material, y este se calienta. Si este calentamiento es intenso el cable puede llegar a ponerse incandescente (como le sucede al filamento de una bombilla). Después de cada colisión el electrón, que sigue sintiendo el campo eléctrico, vuelve a acelerarse hasta que sufre una nueva colisión.

El viaje de los electrones dentro de un material conductor es realmente agitado, una verdadera carrera de obstáculos. Pero ¿contra qué colisionan los electrones? En principio uno podría pensar que la principal causa de estas colisiones son los propios átomos pero, aunque parezca sorprendente, el electrón puede propagarse fácilmente por una red de átomos si estos muestran una estructura perfectamente periódica, ordenada.

 Para desplazarse, el electrón usa unas bandas o niveles de energía que le están permitidos, mientras que le es imposible desplazarse con ciertas energías (las llamadas bandas prohibidas de energía). Esto tiene que ver con el carácter ondulatorio del electrón y es otro “milagro” de la mecánica cuántica. Sin embargo, si la red deja de ser periódica por la presencia de defectos o perturbaciones, el electrón empieza a tener problemas para efectuar su desplazamiento.

Lamentablemente (para el electrón) los átomos del metal se mueven siguiendo unas vibraciones colectivas al igual que las que podemos observar en un conjunto de esferas enganchadas unas a otras mediante muelles.

Dichas vibraciones, que también son las son responsables de la propagación del sonido en los materiales, se llaman fonones, palabra que deriva del término griego “φωνος” (fonós) que significa sonido o voz. Precisamente son estos fonones los que perturban la estructura periódica y ordenada del metal.

Los electrones “sienten” que la estructura cristalina se distorsiona y esto provoca las colisiones de los electrones. Por lo tanto, el viaje de los electrones se ve continuamente perturbado por las colisiones, lo que se puede interpretar como una “oposición” del material al movimiento electrónico. Dicha oposición es lo que se denomina resistencia eléctrica, R.

La relación entre la intensidad de corriente I que circula por el cable y el voltaje aplicado V se denomina ley de Ohm y se escribe con la familiar expresión V= I × R. Dado que la amplitud de las vibraciones de los átomos crece cuando aumenta la temperatura, es fácil intuir que también se producen más colisiones de los electrones y la resistencia crece. Se dice que un material tiene comportamiento metálico cuando la resistencia crece linealmente al aumentar la temperatura.

En resumen, a mayor temperatura, más vibraciones, más colisiones, más resistencia. En nuestro cable no tenemos un único electrón desplazándose. En realidad tenemos trillones de electrones moviéndose, cada uno aportando su pequeña cantidad de carga a la corriente y cada unos sufriendo una penosa historia de colisiones y aceleraciones.

 Los físicos, cuando desean estudiar sistemas con tantísimas partículas, no lo dudan y recurren a la estadística, como hacen los economistas, los sociólogos, o los ecólogos, y empiezan a hablar de conjuntos, medias, desviaciones típicas...Algo similar ocurre con la corriente eléctrica: cuando queremos caracterizar el movimiento de un conjunto muy grande de partículas sometidas a procesos de colisión utilizamos una magnitud denominada “recorrido libre medio inelástico”.

Esta cantidad se define como la distancia promedio que una partícula recorre entre dos colisiones consecutivas. En el caso de electrones viajando por un hilo metálico, a medida que la temperatura crece el recorrido libre medio de los electrones decrece. Por ejemplo, para un hilo de cobre o de oro a temperatura ambiente (T=300K), el recorrido libre medio inelástico es de unos 39 nm.

Es decir, típicamente el electrón sufre decenas de miles de colisiones para recorrer tan sólo un milímetro. Sin embargo, si bajamos la temperatura del hilo hasta los 10 K (aproximadamente -263 ºC) el recorrido libre medio aumenta hasta los 3700 nm ¡casi 4 μm! Es decir, a muy bajas temperaturas, el electrón viaja grandes distancias sin impedimentos. Esta es una de las razones por la que a los físicos les gusta trabajar a bajas temperaturas, evitando las fuertes perturbaciones ocasionadas por las vibraciones atómicas.

¿Qué ocurriría si midiésemos la resistencia de un cable metálico con un tamaño inferior al recorrido libre medio? Por ejemplo, imaginemos que fabricamos un cable de oro de 20 nm de diámetro y 20 nm de longitud (esto es lo que podríamos llamar un nanohilo de oro) y medimos su resistencia a temperatura ambiente. En este caso, el electrón transitaría por el cable sin excesivas colisiones dado que su recorrido libre medio es mayor que el tamaño del cable. Pero si no hay colisiones...¡no hay resistencia!

¡Entonces la descripción dada por la ley de Ohm no es adecuada! Efectivamente, el material ofrece poca resistencia en este caso y se habla de transporte balístico porque el electrón pasa por el nanohilo como una bala, sin experimentar molestas colisiones. Esto no significa que no tengamos que estudiar la ley de Ohm durante el bachillerato o en la universidad, ya que sigue siendo válida para explicar cómo funcionan los cables de mayor tamaño que habitualmente usamos en nuestras casas o en los laboratorios.

Y además...¡más efectos cuánticos!
La forma en que un nanohilo transporta la corriente se hace más complicada a medida que su diámetro decrece, pues empieza a manifestar su naturaleza cuántica. Sabemos que el movimiento de los electrones en la dirección perpendicular al eje del hilo está confinado por las paredes del mismo (los electrones no pueden escapar por la superficie del nanohilo).

 La mecánica cuántica predice que cuando tenemos una partícula confinada en un potencial aparece un conjunto de niveles de energía permitidos. Esto ocurre en todos los átomos, por ejemplo. En el caso de hilos muy estrechos, el confinamiento hace que únicamente unos cuantos niveles estén disponibles para el transporte. A dichos niveles también se les llama “canales de transporte”.

 Sin entrar en detalles matemáticos, la resistencia de un nanohilo cuántico depende de forma directa de las probabilidades de transmisión de cada uno de los canales disponibles. Esta visión del transporte electrónico se debe al físico R. Landauer. Dichas probabilidades de transmisión (¡otra vez la mecánica cuántica hablando de probabilidades!) se obtienen resolviendo la ecuación de Schrödinger (que se mencionó en el capítulo 1) mediante complejos algoritmos en poderosos ordenadores, como veremos en el capítulo siguiente.

 El modelo de Landauer es el que sustituye a la ley de Ohm cuando trabajamos en la nanoescala y los “nano-ingenieros” del futuro tendrán que saber manejar esta nueva formulación cuando quieran diseñar nanocircuitos.

Mecánica Cuántica encima de una mesa
Hemos visto la naturaleza se rige por las sofisticadas y extrañas leyes de la Mecánica Cuántica. Las partículas son ondas, las ondas partículas. No podemos saber con precisión dónde encontrar una partícula. Cuando medimos algo estamos perturbando enormemente el sistema sometido a observación.

La energía de una partícula confinada en un lugar sólo puede tomar valores discretos. Algunas veces las partículas pueden sobrepasar barreras de potencial aunque no tengan energía suficiente para hacerlo. Es, efectivamente, “otro mundo” pero es el nuestro.

Sin embargo, los fenómenos cuánticos suelen desaparecer en nuestro entorno, en el mundo macroscópico. De esta forma, los efectos cuánticos se esconden y nos debemos conformar con un mundo clásico donde las leyes de Newton y las leyes del electromagnetismo nos dicen cómo funcionan las cosas. Bien mirado, menos mal que eso sucede así...

Por lo general, si queremos detectar los escurridizos efectos cuánticos debemos medir con cuidado sistemas donde no haya interferencias entre los objetos estudiados y su entorno. Esto se logra disminuyendo la temperatura de los objetos estudiados y/o haciéndolos muy pequeños. En ambos casos se logra reducir la interacción del objeto con su entorno. Es entonces cuando las cosas, los objetos, las partículas, empiezan a mostrar su “lado cuántico”. Se sabe que el transporte de electrones (la corriente eléctrica) posee interesantes propiedades cuánticas cuando es medido en cables de sección muy pequeña, como nanocables metálicos, nanotubos de carbono, etcétera. Estos efectos cuánticos no se observan en un cable convencional de los que utilizamos, por ejemplo, en nuestra casa para la luz.

Sin embargo, en un laboratorio de investigación los efectos cuánticos en la corriente se pueden observar de diversas maneras como, por ejemplo, en nanocables o nanohilos metálicos.

Estos nanohilos pueden formarse cuando la punta metálica de un microscopio de efecto túnel (STM) toca ligeramente un sustrato metálico, formando un nanocontacto que contiene muy pocos átomos. En esta situación, los electrones muestran su carácter ondulatorio ya que la situación de confinamiento impuesta por la geometría provoca la aparición de ciertos niveles de energía permitidos para el paso de los electrones (se habla de niveles de energía “cuantizados”).

El número de niveles de energía permitidos decrece a medida que el contacto se hace más estrecho y eso se manifiesta en que la corriente disminuye a saltos en lugar de manera continua. Se dice que la corriente está cuantizada. Finalmente, si seguimos usando el STM con mucha precisión, podemos lograr que el contacto sea tan pequeño que los electrones pasen de la punta al sustrato mediante efecto túnel, como se describió en el capítulo 2.

¿Podemos ver esta corriente disminuyendo a saltos en el laboratorio de un instituto de bachillerato sin necesidad de equipos sofisticados y costosos? En principio parece que es imposible fabricar un nanocable con nuestras manos. Sin embargo hay una forma astuta de hacerlo que, aunque sin demasiada precisión, es suficientemente buena como para encontrarnos de bruces con la mecánica cuántica.

Hace más de diez años, un investigador español del CSIC, J.L. Costa-Krämer, mientras trabajaba en el Laboratorio de Física de Sistemas Pequeños y Nanotecnología, tuvo una genial ocurrencia.

Si dos cables gruesos, de los que usamos de forma cotidiana, se juntan, entonces forman un contacto. Hasta aquí nada es extraño. Si posteriormente procedemos a separarlos dicho contacto se romperá. Algo lógico. Sin embargo, es plausible asumir que justo antes de la separación definitiva, del momento de la ruptura del contacto, este será muy pequeño, quizás de tamaño nanométrico. Si hacemos pasar la corriente eléctrica durante ese proceso de separación, ¿seríamos capaces de ver efectos cuánticos en la corriente instantes antes de que tenga lugar dicha separación definitiva?

Para poder observar este fenómeno, Costa-Krämer diseñó un sencillo experimento en el que se hacía circular corriente (aplicando la tensión con una pila de petaca) por dos largos cables de cobre, que se disponen sobre una mesa de forma que queden en contacto.


La nueva electrónica: moléculas, nanotubos, nanohilos, puntos
cuánticos,...
Hemos visto que la tecnología del silicio para fabricar dispositivos electrónicos tiene sus días, mejor dicho, años contados. No se puede predecir el momento exacto en el que el silicio comenzará a ser sustituido como elemento básico de la electrónica.

 Lo que sabemos es que hay varios candidatos para convertirse en los componentes nanoelectrónicos del futuro: moléculas, nanotubos de carbono, nanohilos, puntos cuánticos, etcétera. Todos ellos tendrán en común algunas características: su tamaño nanométrico y que mostrarán efectos balísticos y cuánticos cuando transporten electrones. Esto, que parece un inconveniente, puede ser usado para obtener dispositivos que funcionen de manera diferente, brindando mejores prestaciones. Vamos a ver las posibilidades y retos de algunos de ellos.

Moléculas orgánicas. Entre los posibles candidatos para sustituir al silicio se encuentran varios tipos de moléculas orgánicas llamadas electroactivas (aquellas que responden a estímulos eléctricos). Estas moléculas, que pueden ser muy pequeñas o pueden formar estructuras macromoleculares poliméricas, se comportan como los materiales conductores o semiconductores inorgánicos.

Existen multitud de familias de moléculas electroactivas, como los derivados de polipirrol, naftaleno, fullereno, tetracianoquinodimetano (TCNQ), tetratiofulvaleno (TTF), tioles, etcétera.

Todas estas moléculas, de extraños nombres y compleja formulación, tienen en común su capacidad para transportar carga eléctrica. El estudio del movimiento de electrones en moléculas se inició en la década de 1940, aunque la utilización de materiales moleculares en la fabricación de componentes electrónicos se debe al descubrimiento de los polímeros conductores (ver el capítulo 3) por parte de A. J. Heeger, A. G. McDiarmid y H. Shirakawa, que recibieron el Premio Nobel de Química del año 2000. Estos materiales tienen ya aplicaciones industriales como diodos orgánicos emisores de luz (OLED, siglas de la expresión en inglés “Organic Light-Emitting Diode”), transistores orgánicos de efecto campo cables vibrasen de forma que, en un momento dado, se pudiera romper el contacto.

Si situamos un convertidor IV (pequeño dispositivo que transforma la señal de corriente en una de voltaje) en serie en uno de los cables, y la señal del convertidor la introducimos en un osciloscopio (equipo que nos permite ver de forma gráfica, sobre una pantalla, cómo cambia el voltaje que proporciona el convertidor en función del tiempo), entonces podemos monitorizar la corriente a medida que pasa por el circuito. Dando golpecitos en la mesa se lograba romper el contacto de una forma un tanto descontrolada.

Cada vez que ser rompía un contacto, el osciloscopio mostraba la evolución de la corriente... ¡Y allí estaban los saltos cuánticos de la corriente tal y como predice la mecánica cuántica! Este trabajo fue publicado en 1995 por J.L. Costa-Krämer y sus colaboradores en una prestigiosa revista científica internacional. Posteriormente, estas ideas fueron adaptadas por otros investigadores para ser usadas como una interesante práctica de laboratorio, siendo un recurso docente en varias universidades europeas y norteamericanas.

También se puede utilizar la vibración que produce un altavoz para lograr la separación de los cables.

 (OFET, siglas de la expresión en inglés “Organic Field-Effect Transistor”) o en la fabricación de paneles solares orgánicos. Otras aplicaciones futuras se encaminan hacia la fabricación de baterías, músculos artificiales o diversos tipos de sensores. Es importante destacar que los polímeros conductores permiten fabricar circuitos impresos que son transparentes y flexibles, lo que les convierte en verdaderos ejemplos de materiales “multifuncionales”.

En un futuro construiremos nano-transistores moleculares a partir de moléculas diseñadas para mostrar un carácter metálico o rectificador. En algunos casos estas moléculas podrán cambiar sus propiedades cuando sean iluminadas con luz de cierta frecuencia, lo que será clave para desarrollar dispositivos optoelectrónicos. En otras ocasiones, las moléculas poseerán un núcleo magnético que permitirá ensamblar diminutas memorias.

La posibilidad de combinar propiedades ópticas, eléctricas y magnéticas en un único elemento es lo que confiere a las moléculas su mayor potencial. Podemos empezar a pensar en procesadores donde las corrientes fluyan a través de moléculas específicamente diseñadas para realizar ciertas operaciones lógicas, donde otras moléculas almacenen los datos, y otras transformen dicha información en luz que permitirá transmitir los datos a otras partes del circuito o al exterior del procesador.

 Además, todas estas moléculas podrían llegar a empaquetarse sobre los circuitos integrados usando métodos de autoensamblado como los mencionados en el capítulo 4.

EEE 6.4 Reduciendo la dimensión
Los materiales de nuestro mundo tienen 3 dimensiones (ancho, largo y alto). La mayor parte de sus propiedades, y en particular las eléctronicas, dependen de esta dimensionalidad.

Así, si reducimos el número de dimensiones de un objeto este se comportará de manera distinta. Hoy podemos conseguir de manera artificial crear materiales que tengan 2, 1 ó 0 dimensiones (2D, 1D, 0D). Una superficie plana a nivel atómico es un soporte perfecto para depositar moléculas que formarán un material 2D. Si utilizamos escalones en la superficie de un material, y conseguimos colocar en ellos las moléculas, tendremos un material molecular de una sola dimensión.

Finalmente, si conseguimos, mediante el uso de patrones, colocarlas aisladas en una superficie, podremos decir que tenemos un material 0D. Aun siendo las mismas moléculas, sus propiedades electrónicas son diferentes.

¿Cuánto hay que esperar para llegar a la electrónica molecular? El uso de pequeñas moléculas para realizar operaciones lógicas (las que permiten construir complejos circuitos) es algo corriente en los laboratorios. Por poner un ejemplo mencionaremos que investigadores de las Universidades de Delft (en Holanda), Cornell (en EE.UU), de las empresas IBM o Hewlett-Packard ya usan moléculas que funcionan como transistores o que operan como conmutadores (“switches”) moleculares.

 Sin duda, nos encontramos ante una poderosa alternativa al silicio, que basa su poder en la gran variedad de estructuras moleculares que la química nos puede brindar. Nanotubos de carbono. Cuando hablamos de electrónica molecular no hay que olvidar que los nanotubos de carbono pueden considerarse como una familia especial de macromoléculas.

 Como ya se ha mencionado en el capítulo 3, los nanotubos de carbono poseen unas excepcionales propiedades mecánicas y eléctricas. Un nanotubo de carbono es una macromolécula capaz de transportar balísticamente corriente eléctrica sin apenas resistencia. La densidad de corriente máxima que un nanotubo de carbono puede transportar es centenares de veces superior a la de un cable metálico de igual sección.

Además, los nanotubos de carbono pueden ser conductores o semiconductores, lo que simplificará los procesos de elaboración de microchips, que necesitan muchos pasos de fabricación debido al uso de diferentes materiales.

 La posibilidad de elaborar circuitos completamente basados en nanotubos de carbono quizás permita dar el salto desde la tecnología del silicio hasta la del carbono. Otro aspecto que debemos resaltar es la mayor compatibilidad de los nanotubos de carbono con las moléculas de origen orgánico (incluidas las biomoléculas que se encuentran en los seres vivos y vimos en el capítulo anterior) lo que abre su uso para fabricar implantes inteligentes, biosensores, etcétera.

Nanohilos.
Otras nanoestructuras que posiblemente tendrán aplicación en nanoelectrónica son los nanohilos o nanocables metálicos. Estos nanohilos podrán ser pequeñas cadenas de unos pocos átomos de longitud y de unos pocos átomos de sección. En el desarrollo de la nanoelectrónica, las conexiones entre dispositivos juegan un papel clave. Cuando se disminuya el tamaño de los chips necesitaremos nanoconectores.

Los nanohilos metálicos podrán realizar estas funciones. Ahora se está aprendiendo a fabricar de forma controlada cadenas monoatómicas de varios metales y a conocer cuáles son sus características. Estos nanocables no sólo son buenos conductores de la electricidad sino que además poseen otras interesantes propiedades.

Por ejemplo, si el material del que está hecho el nanocable es magnético (cobalto, hierro o níquel) podemos pensar en usar esa doble funcionalidad, ya que se sabe que la resistencia del nanohilo metálico puede depender de la presencia de un campo magnético externo. Este fenómeno se llama magnetorresistencia balística gigante.

El fenómeno de la magnetorresistencia gigante (descubierto en 1982 por A. Fert y P. Grünberg, galardonados por el Premio Nobel de Física en 2007) ha sido y es de gran importancia para la industria de la informática, ya que ha revolucionado la tecnología del almacenamiento magnético en los últimos diez años, permitiendo construir discos duros de gran capacidad. El hecho de observar el mismo comportamiento en nanohilos permitirá seguir miniaturizando los sensores magnéticos y las cabezas de lectura/grabación de los discos duros.

Puntos cuánticos. Finalmente, terminaremos este paseo por los candidatos a nanocomponentes electrónicos del futuro refiriéndonos a los puntos cuánticos. Un punto cuántico es una estructura cristalina de dimensiones nanométricas, que puede presentar formas diversas, y que usualmente está fabricado de materiales semiconductores.

En un punto cuántico, los electrones están atrapados, confinados en las tres dimensiones. Este confinamiento da lugar a una estructura bien definida de niveles de energía que depende mucho de la forma y el tamaño del punto cuántico. Esta disposición de niveles electrónicos recuerda a la que tienen los átomos y por eso también se les denomina “átomos artificiales”.

Controlando la forma y el tamaño del punto cuántico podemos controlar su estructura y, por añadidura, el espectro de la luz que emiten. Este control de las propiedades ópticas ha hecho que los puntos cuánticos se utilicen para fabricar eficientes diodos láser (usados como lectores de CD y DVD), células fotovoltaicas, así como nuevos tintes y marcadores ópticos que permiten el seguimiento de procesos
biológicos en tiempo real.

Otra interesante propiedad de un punto cuántico es que su estructura electrónica cambia cuando atrapa un electrón. Esto es así porque el confinamiento de los electrones es muy grande y la inclusión de un nuevo electrón causa enormes fuerzas de repulsión.

Este cambio de los niveles se puede aprovechar para que el punto cuántico funcione como un transistor de un único electrón (SET, del inglés “single electron transistor”). En estos dispositivos la corriente que circula por el transistor está “cuantizada”, ya que fluye electrón a electrón.

Se puede decir que la electrónica ha llegado a una sofisticación increíble, dominando el comportamiento del electrón casi a voluntad. Basándose en el mismo fenómeno, los puntos cuánticos se usan para almacenar información (de ahí que también se le denomine “qubit” de la expresión ”quantum bit”).

Estos qubits permitirán desarrollar la criptografía y la computación cuánticas (ver el cuadro dedicado al tema), formando parte de ordenadores cuánticos, poseedores de una gigantesca capacidad que podremos usar para abordar cálculos ahora inimaginables.

Los ordenadores cuánticos y la nanotecnología
En los computadores actuales la información (números, textos, imágenes, canciones, programas, etcétera) se representa mediante secuencias de bits (unidades básicas de información). Dichas secuencias son introducidas en procesadores para realizar ciertas operaciones con ellas (sumar y restar, mostrar imágenes en una pantalla, reproducir música, buscar una dirección en una agenda, etc.).

 La computación clásica se dice que es binaria y secuencial: es binaria porque el procesador usa bits que pueden tomar dos valores (0 y 1); y es secuencial porque las operaciones que realiza el procesador se ejecutan una tras otra. Dichas operaciones se llevan a cabo por “puertas lógico-aritméticas” que se componen de elementos como transistores, condensadores, conectores, etc. Estas puertas realizan diversas operaciones con los bits, siguiendo las leyes del álgebra de Boole, establecida por el matemático G. Boole en el siglo XIX.

Nos gustaría que el ordenador del futuro pudiese analizar imágenes obtenidas mediante satélites para predecir con precisión el tiempo con varias semanas de antelación, o que encontrase leyes ocultas en mercados bursátiles, o simulase el funcionamiento del cerebro.

Sin embargo, sabemos que la miniaturización de los dispositivos electrónicos tarde o temprano llegará a su final, cuando las leyes de la física nos impidan seguir disminuyendo el tamaño de los circuitos. En algún momento dado no podremos seguir por el camino actual, el de los procesadores de silicio, binarios, secuenciales y que operan con las leyes de Boole.

¿Hay alternativas para construir ordenadores todavía más potentes que los actuales? Existen varias propuestas, pero una de las más llamativas es la de construir ordenadores que funcionen con unas premisas radicalmente diferentes: las de la mecánica cuántica. Esta idea fue propuesta por un “conocido” nuestro: R. Feynman.

El secreto de los ordenadores cuánticos radica en un procesador capaz de operar con todas las soluciones simultáneamente. ¿Cómo? De nuevo utilizando las ideas más extrañas de la mecánica cuántica. Ya vimos en capítulos anteriores que el principio de dualidad ondacorpúsculo de la mecánica cuántica afirma que un sistema físico se comporta simultáneamente como partícula y como onda.

Una consecuencia de este principio es la existencia de niveles de energía discretos (cuantizados) en átomos y moléculas. La existencia de estos niveles nos es más familiar en el caso de las ondas estacionarias en una cuerda o en un tubo de un órgano. Por ejemplo, las notas musicales asociadas a las vibraciones de una cuerda de guitarra corresponden a los “niveles de energía” asociados a la nota fundamental y sus armónicos.

Estos últimos poseen frecuencias que son múltiplos de la frecuencia de la nota fundamental. Además en una misma cuerda vibrante pueden coexistir e interferir la nota fundamental y sus armónicos. Pues bien, lo mismo ocurre con las ondas de materia: se pueden superponer e interferir entre sí.

 En concreto, la mecánica cuántica afirma que un sistema con varios estados accesibles puede estar caracterizado por una superposición o combinación de los mismos. Supongamos que tenemos un átomo que posee dos niveles de energía EA y EB, en los que podemos situar (o preparar, como se suele decir) un electrón durante largo tiempo.

 Si el electrón está en el nivel A, podemos decir que el átomo representa un bit clásico 0. Si el electrón se encuentra en el nivel B, tenemos un bit clásico 1. Se dice que tenemos dos posibles estados (0 y 1) para el átomo. Hasta aquí nada nuevo ¡salvo que estamos usando como bit un único átomo! Sin embargo, la mecánica cuántica nos permite asociar una función de onda a cada uno de esos estados. Llamémoslas ΨA y ΨB.

Estas funciones de onda pueden superponerse y así preparar el sistema en una combinación lineal de ambos estados de la forma cAΨA + cBΨB, donde las cantidades cA y cB las podemos elegir a voluntad. El concepto de superposición de ondas cuánticas permite introducir el concepto de bit cuántico, también conocido como cubit o qubit.

Aparentemente podríamos pensar que la superposición de estados no es útil, ya que la información parece que se mezcla de forma poco controlada. Sin embargo este no es el caso. Los cubits se pueden agrupar para aumentar la cantidad de información cuántica acumulada.

Por ejemplo, en un registro formado por 4 bits clásicos podemos almacenar simultáneamente 24=16 números correspondientes a las 16 configuraciones que pueden darse de forma simultánea (0000, 0001, 0010, 0100...). Sin embargo, en dicho registro clásico de 4 bits sólo podemos almacenar una de ellas en un momento dado. La computación cuántica busca la utilización de esta capacidad de almacenamiento simultáneo mediante la ejecución de algoritmos que permitan trabajar en paralelo a un nuevo tipo de procesador: el procesador cuántico.

De esta forma los cálculos cuánticos se hacen sobre la superposición de todos los estados a la vez, en un mismo paso computacional. Así un procesador cuántico trabaja sobre la información almacenada en 4 cubits simultáneamente. Esto es un gran avance sobre la computación clásica secuencial. Se puede decir que el procesador cuántico será intrínsecamente “paralelo” en comparación con el procesador actual.

La construcción de los computadores cuánticos no va a resultar nada fácil, ya que en un ordenador cuántico se necesita introducir y procesar la información, realizar correcciones de errores, leer y almacenar los resultados. Todas estas operaciones se deben realizar con nuevas puertas lógico-aritméticas basadas en las leyes cuánticas, es decir hay que usar “puertas cuánticas”.

Estas puertas cuánticas nos permitirán programar algoritmos que también serán de tipo cuántico. En la actualidad ya se han diseñado varios algoritmos de computación cuántica que proporcionarán considerables ahorros de tiempo frente a los algoritmos clásicos. Por ejemplo, supongamos que queremos encontrar los factores primos de un número con 300 dígitos. Un moderno procesador de 3GHz necesitaría del orden de 50.000 años para ejecutar los 5×1024 pasos que se requieren usando algoritmos clásicos. Sin embargo, aprovechando los cubits y los algoritmos cuánticos diseñados por el matemático P.W. Shor, la misma factorización necesitaría 5×1010 pasos y se ejecutaría en décimas de segundo en un procesador cuántico.

Esto tiene implicaciones terribles desde el punto de vista de la seguridad informática, ya que las claves criptográficas que permiten movimientos seguros de información por Internet se basan en la factorización de números. Cuando los ordenadores cuánticos se pongan en funcionamiento los sistemas informáticos tradicionales serán vulnerables y habrá que pensar en nuevos algoritmos de criptografía (que serán cuánticos, obviamente).

Todavía se desconocen cuáles serán los materiales de los que estarán fabricados los futuros procesadores cuánticos. Se han propuesto sistemas basados en trampas de iones, en el uso de moléculas y líquidos dentro de un sistema de resonancia magnética nuclear (RMN), en puntos cuánticos, etcétera. En la fabricación de los cubits y de las puertas cuánticas la nanotecnología desempeñará un papel primordial. Sin embargo, no estamos hablando de un futuro remoto puesto que la carrera por hacer realidad la computación cuántica ya ha comenzado y en 2007 la empresa D-Wave Systems (http://www.dwavesys.com/) presentó un prototipo de ordenador cuántico de 28 cubits.

La llegada de los ordenadores cuánticos implicará un cambio radical en el hardware y el software que ahora conocemos, pero permitirá realizar cálculos hoy impensables. No debemos terminar sin mencionar que uno de los científicos más importantes en este campo es el español J.I. Cirac, Premio Príncipe de Asturias del año 2006, y que actualmente es director del Instituto Max Planck de Óptica Cuántica, un prestigioso centro de investigación alemán.

Más allá de la electrónica: nanofotónica, espintrónica, biocomputadores y “ciempiés”
Saber cómo serán los ordenadores del futuro es una pregunta con difícil respuesta ya que los ordenadores contienen componentes que proceden de muy diversas tecnologías. No hay que centrarse únicamente en el procesador, aunque tenga un papel fundamental. Hay que hablar también de la memoria, los sistemas de almacenamiento de datos, los periféricos, los interfaces con los humanos, las comunicaciones, el software, etcétera.

Podemos aventurarnos a afirmar que los procesadores, el corazón de los equipos informáticos, dejarán de fabricarse con silicio y se basarán en el carbono o en moléculas orgánicas. Sin embargo no hay que descartar que funcionen con haces de luz, capaces de realizar operaciones lógicas gracias a dispositivos llamados cristales fotónicos. Estos materiales son capaces de manipular la luz gracias a la presencia de nanoestrucuturas ordenadas que los forman.

 Estamos hablando de la nanofotónica. Pero puede ocurrir también que las operaciones lógico-matemáticas se lleven a cabo en circuitos en los que la cantidad física que se propague y manipule no sea la carga del electrón sino su espín (una propiedad cuántica que puede equipararse a una rotación interna del electrón).

En este caso, los circuitos estarán diseñados de forma tal que sean capaces de aprovechar este carácter dual de la información que transporta un electrón. Estamos hablando de la espintrónica.

Finalmente, no se puede descartar que logremos manipular la codificación genética hasta tal punto que podamos usar las cadenas de ADN o ARN como verdaderos códigos de computación para realizar operaciones cuyos resultados deberían extraerse del análisis de las proteínas sintetizadas a partir de la información genética. El “procesador” del ordenador podría ser un pequeño tubo de ensayo conectado a rápidos sistemas de análisis de proteínas.

Estamos hablando de la computación basada en ADN. Sin embargo, el procesador del futuro quizás sea una combinación de estas apuestas que ahora se plantean en los laboratorios u otra totalmente diferente.

Desde el punto de vista de las memorias y del almacenamiento, se producirán avances notables y puede que se llegue a utilizar átomos individuales como bits. En esta dirección, investigadores de IBM ya han demostrado la capacidad de grabar y leer información en átomos aislados de hierro, controlando su momento magnético.

Antes de llegar a este extremo, se usarán otras formas de almacenar datos, que sean evolución de las ahora existentes. Por ejemplo, en 2003 investigadores de la Academia China de Ciencias demostraron que se podía hacer de forma controlada marcas rectangulares de un tamaño 1,5 nm x 1,1 nm sobre una superficie recubierta de polímero. Además las marcas se podían separar 1,5 nm.

 Si interpretamos la presencia o ausencia de marca como el valor 1 ó 0 de un bit, se lograría un aumento importantísimo de la densidad de almacenamiento, haciendo que un disco de tamaño similar a los actuales DVD pudiera almacenar 1 TB. Esta cantidad de datos es equivalente a la información contenida en 266 DVD actuales.

Otros modelos de almacenamiento serán radicalmente diferentes. En el capítulo 2 ya hemos visto como un microscopio de fuerzas atómicas puede leer e incluso modificar detalles sobre una superficie. Sin embargo utilizar el AFM en el proceso de grabación/verificación/lectura para grabar millones y millones de bits sería extremadamente lento.

¿Cómo mejorar la eficiencia del proceso? La respuesta es obvia: usando miles y miles de micropalancas similares a las del AFM trabajando en paralelo. Hace ya seis años que IBM presentó los primeros prototipos de este tipo de sistemas, llamados “Millipede” (ciempiés). Gracias al trabajo simultáneo de más de 4096 palanquitas estos sistemas son capaces de almacenar 2 GB en un cuadrado de 7 mm de lado. Sin embargo, el proyecto tiene serios competidores con los discos magnéticos convencionales y no parece que salga al mercado.

 Aunque finalmente no se pueda comercializar, su desarrollo será útil para otras áreas como el diseño de sensores o la fabricación de máscaras con las que, a su vez, construir otros nanosistemas.

En cuanto a los dispositivos periféricos de los ordenadores, es previsible que los monitores sean grandes, flexibles, plegables y táctiles. Los ratones y teclados puede que desaparezcan poco a poco tal y como los conocemos, y podremos comunicarnos verbalmente con las máquinas o a través de técnicas de realidad virtual.


Las redes de ordenadores ya sólo serán inalámbricas y de altísima velocidad. Seguramente los conceptos de ordenador, agenda electrónica, teléfono móvil, reproductor de música, mando a distancia,... se quedarán obsoletos y habrá nuevos dispositivos que reúnan sus funciones y añadan muchas más.

Todo esto será posible gracias a la capacidad para poder hacer nuevas cosas y cada vez más pequeñas. Está claro que los dispositivos electrónicos con los que conviviremos dentro de veinte años serán muy diferentes (por dentro y por fuera) a los que conocemos hoy, pero, en cualquier caso, la nanotecnología será clave para su desarrollo. Este impulso permitirá que la revolución de la informática y las comunicaciones siga su ritmo trepidante.

7  Nano-simulación: el laboratorio en un ordenador
“Los ordenadores que utilizaremos dentro de 20 años serán de unos 8,8 GHz, ya que cada año hay un aumento de 0,25 GHz en los procesadores, y tendrán discos duros de unos 100 Terabytes”.

Los científificos desarrollan una serie de procedimientos que son usados para intentar entender todos los fenómenos que ocurren en la naturaleza. Este conjunto de metodologías es lo que se conoce como “método científifico”.

 El método científifico nos permite acercarnos a los fenómenos naturales de forma neutral, estableciendo relaciones entre los mismos. Estas relaciones son las leyes científificas que deben explicar los fenómenos ya observados y ser capaces de predecir otros.

Con toda esta información los seres humanos han sido capaces de seguir generando otros nuevos, desarrollar nuevas tecnologías y, como consecuencia, mejorar sus condiciones de vida. Este proceso se ha dado desde los tiempos más remotos pero se ha hecho más patente desde el Renacimiento, y en particular, en los últimos doscientos años. La nanotecnología continuará manteniendo este impulso a lo largo del siglo XXI.

A lo largo de la última mitad del siglo XX ha surgido un nuevo aliado de los científificos e ingenieros: el ordenador, herramienta con la que ha sido posible no sólo hacer experimentos en el laboratorio sino también realizar simulaciones y predicciones.

 El desarrollo de potentes métodos de cálculo que se ejecutan en super-computadores, supone que experimentos muy complejos y caros podrán simularse desde los primeros principios en un ordenador, incluyendo en el cálculo toda la información disponible. Estos son “experimentos virtuales” que cada vez reproducen con más precisión el comportamiento de la materia a escala nanométrica.



El método científico y las matemáticas
El método científico presenta dos aproximaciones: la experimental (método deductivo) y la teórica (método inductivo). En ambos casos es preciso definir una serie de magnitudes que sean observables y cuantificables, es decir medibles. Además es preciso establecer una relación entre ellas que permita explicar la variación de unas en función de las variaciones de otras.

Dichas relaciones se expresan mediante el lenguaje de las matemáticas (fórmulas) y constituyen la expresión formal de las leyes científicas. En ciencia, las matemáticas no sólo sirven para expresar leyes físicas, químicas o biológicas, de carácter abstracto, sino que se usan activamente para analizar datos, realizar predicciones, etcétera.

La ciencia ha evolucionado desde la elaboración de sencillos modelos explicativos del mundo hasta las elaboradas teorías modernas. A su vez, las matemáticas han ido transformándose y aumentando su complejidad.

Cuando filósofos griegos como Leucipo y Demócrito establecieron la teoría atomística, o cuando Tales de Mileto, Anaximenes, Heráclito, Empedocles o Platón buscaron unos principios, o elementos que explicasen el origen de todas las cosas, no fue posible establecer hipótesis científicas  razonables ni las correspondientes leyes matemáticas.

 En algunos casos se representaba la naturaleza bajo un envoltorio matemático, como hizo Platón, planteando una relación entre los cuatro elementos fundamentales y ciertas figuras geométricas (los sólidos platónicos): la tierra se corresponde con el cubo, el aire con el octaedro, el agua con el icosaedro y el fuego con el tetraedro. Posteriormente Aristóteles añadió a la lista el éter, representado por un dodecaedro como elemento constituyente del cosmos.

Esta ingenua representación del mundo se corresponde con el grado de desarrollo de la civilización en aquellos momentos. Sin embargo, el principal mérito que podemos atribuir a estos filósofos pioneros es su intento de desprenderse de las explicaciones de los fenómenos que se dan en nuestro Universo basadas en mitos y leyendas, estableciendo las bases tanto de la filosofía como de lo que mucho más tarde se denominó método científico.



Calcular para predecir
Poner a prueba una teoría supone la elaboración de predicciones a partir de las leyes científicas que se desean probar. Este ejercicio requiere la realización de cálculos, unas veces sencillos pero otras, las más, muy complejos. Estas predicciones son contrastadas en el laboratorio o en el trabajo de campo: si no se cumplen podemos considerar que las hipótesis de partida no son válidas, la teoría no está bien construida, o que los cálculos efectuados para realizar las predicciones son erróneos.

EEE  ¿Cuánto tardará en caer un objeto desde el piso 20?
Pongamos un ejemplo sencillo de cómo cualquiera de nosotros puede aplicar el método científico a la resolución de un problema cotidiano. Imaginemos que queremos determinar el tiempo que tarda en tocar el suelo un objeto que hemos dejado caer desde una determinada altura. Pues bien, para aplicar el método científico experimental o deductivo a la resolución de esta cuestión bastaría con subirse a, por ejemplo, un décimo piso, dejar caer el objeto, por ejemplo una canica, y cronometrar cuidadosamente el tiempo que tarda en llegar al suelo.

En realidad se efectuarían varía medidas para estimar un valor medio del tiempo de caída y el posible error experimental. Después, bajaríamos al piso noveno y repetiríamos la operación, y así sucesivamente hasta llegar al primero. Al final de nuestro pequeño experimento podríamos construir una tabla donde a cada altura (distancia del piso correspondiente al suelo medida en metros) le correspondería un determinado tiempo de caída (medido en segundos).

Una vez obtenidos estos resultados experimentales, y tras una cuidadosa observación, podríamos establecer una relación general entre ambas magnitudes de la forma: tiempo de caída ~ 0,45 × (altura)1/2. Esta relación nos serviría en un futuro para poder hacer previsiones sin tener que recurrir a la experimentación. ¿Cuánto tardaría en caer desde el vigésimo piso? ¿Esta misma ley funcionaría si lanzamos una pelota de tenis de mesa? ¿Crees que esta ley obtenida depende de la masa del objeto?

Una vez planteadas las ecuaciones que gobiernan un fenómeno físico o químico, la forma más general de resolverlas consiste en la llamada vía analítica: encontrando soluciones generales de estas ecuaciones. Sigamos desarrollando el ejemplo EEE. En el que soltamos en caída libre un cuerpo desde cierta altura inicial h0. Sabemos, a partir de la segunda ley de Newton, que la aceleración que sufre un cuerpo es proporcional a la fuerza neta que sobre él se ejerce.

Supongamos, además, que la fuerza que la Tierra ejerce sobre un cuerpo dado es proporcional a su masa m y a la cantidad g (siendo g=9.8 m/s2, la aceleración debida a la fuerza de la gravedad en la superficie terrestre). Con un poco de álgebra es posible obtener la expresión que predice la altura h a la que encontraremos el objeto una vez transcurrido un tiempo t.

Esta expresión analítica y general tiene la forma h(t) = h0 -1/2×g×t2 y se puede emplear para diversos valores de la masa y la altura inicial (aunque como se ve la masa del objeto no interviene en la ecuación). Usando una sencilla calculadora podemos realizar predicciones sobre el tiempo que dura la caída de un objeto. También se pueden determinar otras cantidades, como la velocidad justo antes de impactar contra el suelo.

¿Qué ocurriría si necesitamos hacer este cálculo para 3500 objetos diferentes, situados a distintas alturas iniciales? Es evidente que con ayuda de una hoja de cálculo o un pequeño programa de ordenador resolveríamos rápidamente este problema cuando necesitemos realizar tediosas repeticiones del cálculo.

Por lo general, la mayoría de las ecuaciones que describen los fenómenos naturales no presentan una fácil resolución. En algunos casos estas ecuaciones se simplifican eliminando algunos términos o algunas variables que no son especialmente importantes (se dice que no son significativas).

Existen otros tipos de simplificaciones, en las que algunos términos o variables se sustituyen por otros más manejables. Por ejemplo, es habitual encontrar desarrollos matemáticos donde los objetos pequeños (o incluso muy grandes) se reemplazan por puntos o los objetos casi esféricos se consideran esferas perfectas. Estas aproximaciones permiten, en algunos casos, encontrar bellas soluciones analíticas, siempre requiriendo grandes dosis de paciencia y destreza algebraica.

En ciertas áreas de conocimiento la descripción matemática de los sistemas de estudio requiere manejar infinidad de variables. ¿Cómo describir el enrollamiento de una cadena de ADN, la dinámica de un ecosistema, el tráfico de vehículos de una gran ciudad, el comportamiento de un huracán, el impacto de un meteorito sobre un lejano planeta, la colisión de dos galaxias o el flujo de compraventa de acciones que tiene lugar en la bolsa?

En muchos de estos ejemplos se utilizan magnitudes estadísticas para entender de forma aproximada cómo se comporta el sistema. Los ejemplos anteriores constituyen casos concretos de sistemas complejos cuyo comportamiento requiere una descripción matemática sofisticada y en los que obtener buenas predicciones depende de la realización de cálculos nada triviales.




De las reglas de cálculo a los superordenadores

 En la década de 1960 los procesadores alcanzaron los 100 Mflop/s. En la actualidad los procesadores que existen en los ordenadores convencionales pueden llegar a alcanzar los 30 Gflop/s. Toda esta vertiginosa evolución de la capacidad de cálculo es otra forma de poner de manifiesto la ley de Moore, ya mencionada en anteriores capítulos.

Además del aumento de potencia de los procesadores ha habido otros avances relacionados con la arquitectura de los equipos. En la actualidad se consigue aumentar la potencia de cálculo acumulando procesadores que trabajan en paralelo mediante sofisticados sistemas operativos que gestionan de forma eficiente todo el flujo de datos de entrada y salida mediante conexiones de altísima velocidad.

Estamos hablando de los supercomputadores. Actualmente existen centenares de ellos distribuidos por todo el mundo. Un listado de los más importantes se puede encontrar en la web http://www.top500.org/. En el momento de escribir esta unidad didáctica el supercomputador más potente del mundo, llamado “Roadrunner” (“Correcaminos”), se encuentra en EE.UU., ha costado 133 millones de dólares, y cuenta con casi 16.000 procesadores cell que le proporcionan una potencia conjunta “pico” de cálculo de unos 1,6 Petaflop/s (1.600 Tflop/s) ¡1.600 billones de operaciones por segundo!

Pero cuando estés leyendo estas líneas, estos números ya habrán aumentado, seguro. Esta revolución, junto el desarrollo de poderosos sistemas operativos y lenguajes de programación como C, COBOL, PASCAL, o FORTRAN, han permitido que la informática se haya incorporado de forma irreversible en empresas, centros de investigación, y en nuestras vidas.

Desde la perspectiva científica se puede decir que en los últimos 50 años se ha asistido a la formación de un “círculo virtuoso” en el que los avances científicos se plasman en la construcción de mejores computadoras que a su vez permiten avanzar más rápidamente en la búsqueda de nuevos materiales que sirvan, entre miles de aplicaciones, para mejorar de nuevo los futuros equipos informáticos.


Simulación: una forma  de ahorrar recursos y tiempo
¿Para qué hay que hacer simulaciones en el ámbito de la nanociencia? Ha quedado claro que el cálculo es una tarea inherente al método científico y, en particular, el uso de complejos sistemas de cálculo es esencial cuando nos referimos al nanomundo.

 En primer lugar, las leyes de la mecánica cuántica que rigen la materia en la nanoescala plantean terribles problemas numéricos que deben ser resueltos y en los que las aproximaciones analíticas (es decir, intentar resolver las ecuaciones directamente obteniendo expresiones algebraicas) son demasiado difíciles.

Por otro lado, la experimentación en la nanoescala requiere instalaciones, equipos y personal para efectuar la síntesis, fabricación y caracterización de materiales, estructuras y dispositivos. Todo esto resulta muy costoso. Además se necesita invertir mucho tiempo y dinero para modificar la composición de un material o la estructura de un dispositivo con el fin de intentar mejorar sus propiedades, con el riesgo de no conseguir mejoras apreciables tras dedicar mucho esfuerzo.

¿Podemos seguir otra estrategia que permita ahorrar recursos, tiempo y dinero? La respuesta es sí. Puesto que conocemos las ecuaciones que describen la naturaleza en la nanoescala, y dado que los ordenadores son cada vez más potentes, es posible describir las propiedades de materiales y simular procesos en la nanoescala usando aproximaciones numéricas.

Se habla entonces de hacer “experimentación in silico” (refiriéndose al silicio del que está fabricado el procesador) en contraposición a la experimentación “in vivo” o “in vitro”. Ya se han dando pasos en esta dirección durante las tres últimas décadas, de la mano de la revolución informática. Pasos que son más y más largos a medida que los superordenadores se hacen más poderosos y los códigos de computación más complejos.

Cálculos en la nanoescala: de los cálculos ab-initio a los métodos semi-clásicos
La mecánica cuántica es el esquema conceptual que nos permite entender cómo están formados los átomos, cómo estos se enlazan para formar moléculas, cómo se mueven dentro de una molécula, y cómo estas se mueven bajo la influencia de fuerzas externas, cómo se deforman los materiales en presencia de tensiones o aumentos de temperatura, cómo pueden emitir radiación electromagnética, cómo pueden transportar carga, etcétera.

Recordando el contenido dedicado a la mecánica cuántica, esta formulación se asienta sobre la ecuación que Schrödinger planteó en 1925, y que permite conocer como se comportan los sistemas mecanocuánticos.

Dicha ecuación juega el mismo papel que las leyes de Newton en mecánica clásica. La ecuación de Schrödinger permite determinar la llamada “función de onda” Ψ(x,y,z) asociada a una partícula que está sometida a la influencia de un potencial V(x,y,z). Las cantidades (x,y,z) son las tres coordenadas espaciales.

La cantidad │Ψ(x,y,z)│2 representa la probabilidad de encontrar una partícula en el entorno del punto (x,y,z). Esta información parece, aparentemente, pobre por tratarse de una probabilidad, pero a partir de ella podemos conocer la forma de moverse de los electrones que forman parte de átomos y moléculas, y explicar la formación de los enlaces químicos, como vimos en los capítulos 3 y 4.

Un aspecto llamativo que caracteriza lo que ocurre en sistemas atómicos y moleculares es que las energías de sus electrones no pueden tomar valores arbitrarios. Por el contrario, estas energías solamente pueden tomar una serie de valores discretos, los niveles energéticos.

 Dichos niveles explican la estructura del espectro de luz emitida o absorbida por la molécula. Estos espectros nos permiten diferenciar unas sustancias de otras. Desde el punto de vista teórico, una primera aproximación consistiría en proponer un modelo molecular (una forma concreta de la molécula, especificando los tipos de átomos y sus posiciones) y encontrar sus niveles de energía, resolviendo la ecuación de Schrödinger.

Posteriormente, podemos establecer una comparación directa entre los espectros teóricos y experimentales, y determinar si la estructura propuesta para una molécula es correcta. Además, conociendo la función de onda de todo el sistema se puede calcular las fuerzas que unos átomos ejercen sobre otros y, aplicando las leyes de Newton, averiguar cómo son las diferentes vibraciones atómicas dentro de la molécula.

 También se pueden determinar las energías de disociación molecular, las energías de ionización, sus propiedades magnéticas, etcétera. Todas estas magnitudes se comparan con observaciones experimentales, de forma que las predicciones de la mecánica cuántica están sometidas continuamente a comprobación, tal como impone el método científico.

A medida que las moléculas son más grandes se necesita resolver una ecuación de Schrödinger progresivamente más compleja. Por ejemplo, determinar la estructura electrónica de una molécula como el benceno (C6H6) requiere resolver, en principio, una ecuación de Schrödinger en la que aparecen las 162 coordenadas de las 54 partículas (12 núcleos atómicos y 42 electrones) que forman la molécula.

 En estos casos se necesitan, obligatoriamente, simplificaciones que hagan tratable el problema. Por lo tanto, la ecuación de Schrödinger puede resolverse con distintos grados de aproximación. Se dice que se efectúa un cálculo “ab-initio” (o de primeros principios) cuando somos capaces de predecir la estructura electrónica de un sistema (es decir, las funciones de onda y los niveles de energía de los electrones que forman dicho sistema) con tan sólo conocer el tipo de átomos que lo forman y sus ubicaciones en un momento dado.

Los cálculos “ab-initio” requieren sofisticados programas, de miles y miles de líneas de código de programación, que son desarrollados con la colaboración de muchos científicos. Estos programas continuamente se perfeccionan para abordar el estudio de sistemas físicos, químicos y biológicos cada vez más complejos.

Como ejemplo podemos citar los siguientes códigos ab-initio: GAMESS, GULP, GAUSSIAN, VASP, CASTEP, DMOL, SMEAGOL, FIREBALL o SIESTA. En particular este último código, cuyas siglas corresponden a la expresión “Spanish Initiative for Electronic Simulations with Thousands of Atoms” (http://www.uam.es/departamentos/ciencias/fismateriac/ siesta/), ha sido desarrollado, como podía imaginarse por su nombre, por científicos españoles y ha alcanzado una gran difusión internacional.

A pesar de la gran capacidad de los ordenadores actuales, estos se quedan pequeños ante la envergadura de muchos problemas reales. Por lo general, las simulaciones cuánticas ab-initio son demasiado costosas y se utilizan para estudiar sistemas de unas pocas decenas de átomos.

Si disponemos de acceso a supercomputadores podemos llegar a estudiar sistemas con unos pocos centenares de átomos. Aún así, estos sistemas son muy pequeños si tenemos en cuenta que un cubo de 10×10×10 nm3 puede contener más de un millón de átomos.

Entonces, ¿cómo estudiar las propiedades, por ejemplo, de una nanopartícula de 20 nm de diámetro o cómo describir la forma en que se pliega una proteína? En estos casos debemos simplificar la rigurosa forma de trabajo “ab-initio” y encontrar alguna metodología más sencilla que mantenga la información sobre su origen cuántico.

Una simplificación bastante radical del problema cuántico consiste en desarrollar de forma meticulosa los potenciales que “sienten” los átomos del sistema debido a la presencia de la nube electrónica originada por el resto de átomos circundantes. Si desarrollamos un potencial que contenga los principales rasgos del problema cuántico entonces podemos intentar usarlo para describir sistemas formados por un gran número de átomos.

Esta aproximación se denomina semi-clásica (por encontrarse a mitad de camino de las aproximaciones clásica y cuántica) y permite estudiar el comportamiento dinámico de sistemas que contienen varios millones de átomos.

Estos cálculos necesitan códigos de programación menos sofisticados que los empleados en el caso “ab-initio” pero se efectúan también en poderosos sistemas de computación. Por ejemplo se puede estudiar cómo colisiona una nanopartícula sobre una superficie, analizar la dinámica de vibración de objetos complejos, estudiar el plegamiento de una proteína, descubrir los mecanismos de fractura de un nanohilo, o determinar el punto de fusión de sistemas formados por pequeños granos de diferentes materiales.

En todos estos casos, lamentablemente,  se pierde el rastro de lo que le ocurre a la nube de electrones y sus niveles de energía. Es el precio que hay que pagar para poder estudiar sistemas de mayor tamaño. Sin embargo, no debemos olvidar que el “círculo virtuoso” de la interacción entre las ciencias y las tecnologías de la información hará que, tarde o temprano, los cálculos puramente cuánticos sean aplicables a sistemas muy grandes.

Sólo es una cuestión de tiempo, tal como nos dice la ley de Moore. Cuando el sistema que se desea simular es mucho mayor, como por ejemplo una membrana celular, un ribosoma o un virus, se necesita realizar cálculos que ya son inabordables incluso usando aproximaciones semi-clásicas.

En estos casos se utilizan otros métodos muy similares a los que se utilizan en ingeniería para estudiar problemas macroscópicos como las deformaciones de un vehículo ante un impacto o la distribución de temperaturas en una transbordador espacial durante su reentrada en la atmósfera.

En estos casos, el sistema que se desea estudiar es dividido en pequeños fragmentos (elementos finitos). Las leyes de la física nos permiten establecer una serie de ecuaciones que nos determinan como cada fragmento interacciona con los otros fragmentos circundantes. Para resolver estas ecuaciones se necesitan de nuevo poderosos ordenadores que nos permiten predecir el comportamiento de un material o comprobar los resultados experimentales.

Con esta aproximación se difumina, evidentemente, la información aportada por la teoría cuántica (funciones de onda, niveles energéticos, probabilidades, etcétera) aunque permite obtener información que es muy útil para ciertas aplicaciones de los materiales estudiados.

En este capítulo hemos visto cómo los modernos ordenadores, junto con el desarrollo de programas que tienen en cuenta la naturaleza cuántica de la naturaleza, son herramientas indispensables para estudiar el nanomundo. Con ellas somos capaces de entender y complementar los fenómenos observados y los resultados experimentales, y, en algunos casos, nos permiten ir más allá de la información que se consigue en el laboratorio.


Nano-aplicaciones del laboratorio al escaparate
8

Ya hemos mencionado en varias ocasiones que la nanociencia y la nanotecnología son áreas multidisciplinares. Cada vez es más frecuente la colaboración de químicos, físicos, ingenieros y biólogos en los laboratorios donde se trabaja en estas disciplinas. Para todos ellos la nanoescala es un punto de encuentro y un inmejorable terreno de juego.

Como consecuencia de su carácter multidisciplinar, la nanotecnología proporciona un amplio abanico de aplicaciones que, con toda seguridad, van a cambiar nuestras vidas en las próximas décadas. En este capítulo vamos a ilustrar algunas de ellas. Se suele considerar que las áreas de aplicación de la nanotecnología son:
(I)                los nuevos nanomateriales;
(II)              la nanoelectrónica;
(III)            la nanobiotecnología y la nanomedicina;
(IV)          la nueva instrumentación necesaria para trabajar en la nanoescala; y
(V)            los nanosensores y los nanoactuadores. Las dos últimas áreas pueden ser consideradas como extensiones de la nanoelectrónica, ya que su desarrollo se basa en los avances que se logran en el área de los componentes electrónicos. Aunque de parte de todo esto ya se ha hablado en los capítulos anteriores, aquí deseamos resaltar cómo los conceptos e ideas se pueden traducir en la tecnología con la que obtener nuevos productos y bienes de consumo.

Nos centraremos en el paso de la nanociencia a la nanotecnología. Algunos de estos productos ya están a nuestra disposición. ¡Bienvenidos al nanomercado!

Nanomateriales
De todas las posibles aplicaciones de la nanotecnología, la fabricación de nanomateriales es la que más rápidamente se ha hecho un hueco importante en las industrias. A lo largo del siglo XX, se había logrado producir a escala industrial muchos tipos de materiales, sin que importase tener un preciso control de sus propiedades a escala nanométrica.

Sin embargo, ya sabemos que cuando estos mismos materiales se sintetizan con tamaño nanométrico suelen mostrar cambios apreciables en sus propiedades. Esto, que en principio pudiera parecer un inconveniente, es el punto clave que hace que la nanotecnología tenga sentido, ya que nos permite fabricar materiales con propiedades diferentes con tan sólo controlar su tamaño a escala nanométrica.

Sabemos que un material sintetizado con dimensiones nanométricas (lo que llamamos un nanomaterial) tiene gran superficie relativa (relación entre superficie y volumen), lo que permite aumentar su reactividad. Los nanomateriales también empiezan a manifestar comportamientos mecánicos, ópticos, o eléctricos diferentes a los de sus “hermanos mayores”.

En otros casos se han sintetizado materiales completamente nuevos que son propios de la nanoescala y no tienen equivalentes macroscópicos, como ocurre con los nanotubos de carbono.

Otros nanomateriales se caracterizan por tener en su interior oquedades o poros de forma controlada y tamaño nanométrico. Nos referimos a los materiales nanoporosos, que comienzan a ser utilizados para almacenar moléculas peligrosas, para filtrar sustancias nocivas, etcétera.

También se pueden usar para fabricar células de combustible y baterías alcalinas. En algunos casos, las grandes superficies internas de estos materiales nanoporosos permiten que más reactivos se anclen sobre las mismas, aumentando la velocidad de las reacciones químicas, es decir, sirven de catalizadores. Los más conocidos son las zeolitas, que se usan en el refinado del petróleo y de sus derivados.

No olvidemos mencionar que las nanopartículas también se pueden usar como catalizadores en multitud de reacciones químicas. En otros muchos casos, se necesita modificar las propiedades iniciales de un material de partida (llamado material matriz) mediante la incorporación de pequeñas cantidades de ciertos nanomateriales.

Por ejemplo, un adhesivo convencional fabricado con cierto polímero puede cambiar sus propiedades, como la resistencia a fractura o el punto de fusión, gracias a la adición de pequeñas cantidades de nanopartículas. Esto también se logra incluyendo nanotubos de carbono en fibras de vidrio, fibras de carbono u otros materiales. Si las partículas que se añaden absorben la radiación ultravioleta el material matriz cambiará sus propiedades ópticas, si dichas nanopartículas son hidrófobas (repelen el agua) el material resultante no se mojará tan fácilmente, y si poseen carácter bactericida el material tendrá utilidad en aplicaciones sanitarias o quirúrgicas.

Por lo tanto, los nanomateriales y nanopartículas permiten cambiar las propiedades de materiales ya existentes. También se suele hablar de la “sintonización” a voluntad de dichas propiedades.

No debemos dejar de mencionar que la naturaleza es una fuente inagotable de inspiración para diseñar nuevos materiales. Se dice que lo “nano” aprende de lo “bio”. En muchos casos, entender el funcionamiento de un material creado por la naturaleza, permite trasladar algunos conceptos a otro ámbito de aplicación. Por ejemplo, una de las aplicaciones recientes de la nanotecnología ha consistido en la fabricación de un plástico transparente tan resistente como el acero.

Para ello se ha imitado la estructura molecular de las conchas marinas, mediante nanocapas de arcilla y de un polímero orgánico que actúa como pegamento (una especie de novedoso “nanovelcro”).

 El resultado es un material que, además de muy resistente y transparente, es totalmente biodegradable y por tanto respetuoso con el medioambiente. Sus aplicaciones, ya en desarrollo, incluyen la fabricación de tejidos y trajes de seguridad, capas de blindaje para vehículos, sustitutos del vidrio en ventanas o cúpulas, y diversos tipos de biosensores.

 La tela de araña (a la que dedicamos un cuadro específico anteriormente), las estructuras ramificadas de las patas de los tritones, las estructuras hidrófobas de la flor de loto, etcétera, son ejemplos que la naturaleza pone a nuestra disposición para diseñar nuevos materiales.

Nanoelectrónica
Como se ha mencionado, la nanotecnología nos va a permitir fabricar dispositivos electrónicos cada vez más diminutos y potentes, lo que ayudará a profundizar en la implantación de lo que se ha dado en llamar “sociedad digital”.

 En un futuro no muy lejano se integrarán en un único dispositivo algunos equipos como teléfonos móviles, ordenadores, reproductores de música y video, sintonizadores de radio y televisión, agendas, sistemas de correo electrónico, sistemas de control remoto, sistemas de localización GPS, sensores de temperatura corporal, etcétera.

Los equipos dispondrán de pantallas flexibles, ultradelgadas, plegables u enrollables, y su procesador y sistema de almacenamiento estarán ubicados en un minúsculo rincón del aparato, por ejemplo el propio interruptor de encendido, o se encontrarán distribuidos formando parte de la propia pantalla o carcasa.

 Los teclados se integrarán en las pantallas, que serán táctiles y obedecerán instrucciones vocales. Tampoco hay que descartar que la pantalla, el procesador, y los sistemas de comunicaciones lleguen a estar integradas en unas gafas o unas lentillas. ¿Estamos muy lejos de todo esto? Es difícil dar fechas, pero se camina en esta dirección de forma imparable. Las pantallas flexibles ya han salido al mercado de la telefonía móvil a finales de 2007.

Si escudriñamos lo que se hace en los laboratorios, encontramos más y más pistas que nos indican cómo será el futuro. Por ejemplo, investigadores de la universidad de Illinois en EE.UU. han sido capaces de fabricar una radio del tamaño de un grano de arena usando nanotubos de carbono.

En la Universidad de Washington, un equipo de científicos ha desarrollado unas lentillas que integran circuitos electrónicos y diodos “leds” que nos muestran una pantalla con información. El siguiente paso es que ¡la lentilla tenga conectividad a Internet!

Estos nuevos equipos traerán importantísimas consecuencias en todas las actividades del ser humano. Sin embargo, la revolución en el ámbito de la nanoelectrónica está ocurriendo de forma suave y continuada, ya que el ritmo de novedades que surgen día tras día se mantiene constante desde hace muchos años. Ahora parece normal que vivamos inmersos en ese continuo cambio. De nuevo, otra consecuencia de la ley de Moore.

.
Nanobiotecnología y nanomedicina
Sin duda alguna, los seres humanos siempre han estado interesados por mejorar sus condiciones de vida, erradicar enfermedades, ser más longevos y disfrutar de una vejez más saludable.

 En esta búsqueda por mejorar su salud, el hombre hace esfuerzos increíbles por entender cómo funcionamos y cuáles son las causas últimas de nuestras enfermedades, buscando remedios que a su vez sean asequibles para una gran parte de la población mundial.

La búsqueda de las causas de muchas enfermedades se está empezando a realizar a nivel molecular, en la nanoescala, por lo que muchas herramientas de diagnóstico y biosensores están íntimamente relacionadas con el desarrollo de instrumental en el ámbito de la nanotecnología.

Ya hemos visto cómo es posible recubrir nanopartículas que posean interesantes propiedades magnéticas u ópticas con una cierta sustancia capaz de acoplarse a una proteína o célula determinada, creando así marcadores que puedan viajar por nuestro organismo.

También se fabricarán pequeñísimos biosensores capaces de medir en tiempo real la concentración de diferentes sustancias en nuestra sangre, permitiendo análisis simultáneos de diversos parámetros y evitando críticos tiempos de espera.

La nanotecnología no sólo permitirá detectar enfermedades con gran precisión, sino que permitirá crear dispositivos capaces de combatirlas. En la actualidad se está haciendo un gran esfuerzo en el tema de la “dispensación o liberación controlada de fármacos”. En la actualidad los fármacos se incorporan al torrente sanguíneo directamente o a través del sistema digestivo y se distribuyen por todo el organismo.

Esta forma de proceder es ineficiente ya que se desperdician fármacos en lugares donde no se necesitan. Además, en ciertas ocasiones, estas sustancias pueden resultar dañinas para ciertos tejidos u órganos que están sanos, produciendo los efectos secundarios que encontramos listados en los prospectos de los medicamentos. Un ejemplo bien conocido de este hecho son los desagradables efectos de la quimioterapia usada para tratar ciertos tumores.

No cabe duda, como ya se ha mostrado, que es mucho más inteligente diseñar un fármaco que viaje por nuestro interior hasta el foco infeccioso o la región enferma y libere allí, de forma local, la sustancia activa, minimizando los efectos secundarios y permitiendo aumentar las dosis efectivas.

 Estos fármacos, que actuarían como “nanomisiles inteligentes”, podrían ser los precursores de los tan publicitados y controvertidos nanorobots, capaces de detectar y tratar enfermedades de forma autónoma y eficiente. Sin embargo, hoy por hoy, los nanorobots están más cercanos al ámbito de la ciencia-ficción que a la investigación que se realiza en los laboratorios.

8.1 Liberadores de fármacos, espermatozoides y virus
¿Qué similitudes hay entre un liberador localizado de fármacos y un espermatozoide? ¿Y entre el liberador de fármacos y un virus? ¿Qué podemos aprender de la forma en la que la naturaleza trabaja?

La nanotecnología, aliada con la medicina, tiene también otras muchas posibilidades. Por ejemplo, existen sistemas de esterilización de agua y aire basados en nanofibras que repelen las bacterias y los virus con muchísima mayor eficiencia que las membranas tradicionales.

Otras interesantes aplicaciones de la nanomedicina se encuentran en fase de investigación y desarrollo en laboratorios de todo el mundo. Por ejemplo, grupos de investigadores del CSIC ya sintetizan nanomateriales para obtener prótesis más resistentes y biocompatibles, y fabrican nanomateriales biodegradables y bactericidas que sirven de soporte, de andamio, para el crecimiento de huesos y cartílagos.

Recientemente, investigadores del MIT en EE.UU. y de la Universidad de Hong Kong en China han sintetizado un gel de péptidos nanoestructurados que permite detener hemorragias en pocos segundos, lo que es muy interesante en intervenciones quirúrgicas. Una combinación de polímeros y nanopartículas ha sido usada por investigadores del MIT en EE.UU. para regenerar nervios previamente seccionados en ratones, abriendo la puerta a la reparación de tejido nervioso y a la posible recuperación de parapléjicos y tetrapléjicos.

Sin embargo, queda mucho tiempo antes de saber si estas investigaciones van a tener las consecuencias que los científicos desean y la sociedad demanda.

Otro de los campos a los que ya ha llegado la nanotecnología es el de la alimentación, también relacionada con la salud de los seres humanos. La implicación de lo “nano” en la producción de alimentos abarca diferentes fases de la larga cadena que siguen los productos que comemos o bebemos desde su origen hasta nuestra cocina.

 La primera de dichas etapas es la producción del alimento, y en este sentido se están desarrollando nanosensores para controlar las condiciones del suelo agrícola y del agua de ríos y mares, y también para seguir el crecimiento y grado de maduración de las cosechas.

En cuanto al procesado de los alimentos, se trabaja sobre potenciadores del sabor, y en el uso de nanopartículas para controlar la textura de los preparados alimenticios. El envasado es otro aspecto importante, y la nanotecnología está ayudando mucho en el desarrollo de envases más ligeros, aislantes y protectores (de la corrosión y de la contaminación por bacterias u hongos).


También se trabaja en el uso de nanopartículas fluorescentes unidas a anticuerpos, que pueden detectar la presencia de aditivos químicos indeseados o la aparición de procesos de descomposición durante el almacenamiento. 

Además, el uso de nanosensores biodegradables dentro del envase que contiene el alimento permitirá controlar su temperatura y grado de humedad que han tenido en todo momento.

 Por otra parte, a mitad de camino entre la alimentación y la farmacología se encuentra el campo de los suplementos nutricionales, en el que se investiga sobre nanocontenedores con vitaminas que mejoran la dosificación y absorción de las mismas, o nanopartículas que aumenten la estabilidad de los nutrientes. Por tanto, antes o después acabaremos “comiendo nanotecnología”.

Instrumentación, sensores, actuadores, ensambladores...
Muchas de las aplicaciones anteriores podrán llevarse a cabo si disponemos de las herramientas adecuadas para mirar, trabajar y desenvolvernos en el nanomundo. Esto significa que debemos diseñar equipamiento e instrumentación capaces de medir las propiedades de sistemas nanométricos y de actuar sobre dichos sistemas.

En la actualidad contamos con los microscopios de sonda local y con potentes microscopios electrónicos, de los que ya hemos hablado en el capítulo 2. Pero si deseamos seguir profundizando en el mundo de la nanoescala, en el futuro tendremos que desarrollar nuevas herramientas, más versátiles, que proporcionen de forma instantánea más información y nos permitan interaccionar de forma más directa con ese nanomundo.

Para trabajar en la nanoescala nos debemos mover por ella sin problemas, y necesitamos obtener información del entorno de cada punto observado. Como ejemplo mencionaremos que investigadores del Instituto de Materiales de Japón (NIMS) diseñaron ya hace 3 años un “nanotermómetro” de 10 micras de largo y 75 nm de ancho, basado en nanotubos de carbono rellenos de galio.

Dicho nanotermómetro permitiría hacer un mapa local de las temperaturas de una superficie, para poder monitorizar reacciones químicas, por ejemplo. En otras ocasiones se necesitarán actuadores para poder ejecutar alguna acción concreta, como por ejemplo, abrir una nanocápsula donde se almacena un fármaco.

Sin embargo el mundo de aplicaciones de los sensores es prácticamente infinito con algunas tan variadas como la medición de contaminantes, los sistemas de detección de incendios en bosques, la determinación del grado de fermentación de un vino durante su preparación, el análisis del estado del contenido de una lata de conservas, la detección de explosivos, etcétera.

Con mucho esfuerzo de diseño y mediante la combinación adecuada de sensores y actuadores, tal vez algún día la nanotecnología nos permitirá fabricar el denominado “ensamblador universal” que el ingeniero norteamericano K. E. Drexler ya propuso hace más de veinte años y del que se habló en el capítulo 1.

Dicho instrumento permitiría guiar de forma controlada una secuencia de reacciones químicas mediante el posicionamiento de moléculas en los sitios adecuados. Ya existen en la naturaleza ensambladores moleculares muy eficientes, como los ribosomas de las células, que sintetizan proteínas con las instrucciones que reciben a través de las cadenas de ácido ribonucleico mensajero o las enzimas que polimerizan el ADN y con ello permiten la replicación de los seres vivos.

 La idea de Drexler va más allá y propone construir todo tipo de materiales usando esta aproximación, como si manejásemos una especie de juego de construcción donde las piezas serían átomos y moléculas: un verdadero ejemplo de tecnología de abajo hacia arriba (“bottom-up”). Sin embargo, hoy por hoy, estas ideas están lejos de convertirse en algo tangible y la propuesta del ensamblador universal es muy controvertida.

La llegada de la nanotecnología: un proceso de varias etapas
A juicio de multitud de expertos, tanto del ámbito académico como del mundo empresarial, la nanotecnología se va a desarrollar en tres etapas. En una primera etapa las industrias producirán objetos y dispositivos más y más pequeños, siguiendo los esquemas convencionales (“top-down”) de fabricación.

Esta etapa es la que estamos viviendo y cubre el periodo 2000-2020. En una segunda etapa, entre los años 2010 y 2030, los procedimientos de tipo “bottom-up” empezarán a utilizarse de manera más frecuente.

Finalmente, los procesos de tipo “bottom-up” serán los que lideren la nueva forma de fabricar en el resto del siglo XXI. Esto no significa que los métodos convencionales dejen de existir, en realidad habrá una amalgama de sistemas de producción tanto de tipo “bottom-up” como “topdown” que serán utilizados en función del tipo de producto que se desee fabricar y, sobre todo, de los costes de fabricación.

Es evidente que si algo se puede fabricar de manera “bottom-up” pero con costes elevadísimos, se seguirán usando métodos “top-down” para obtener el mismo resultado. La nanotecnología, como cualquier desarrollo tecnológico, se usará si es rentable frente a los procedimientos que ya existen, o si es capaz de obtener productos nuevos con prestaciones inigualables para usos muy concretos.

 Sin embargo, será necesario tener un concepto amplio de rentabilidad económica, ya que se deben valorar los costes sociales y medioambientales junto con los costes de la mano de obra, de las materias primas, de publicidad y distribución, etcétera. Es decir se deben aplicar modelos de valoración de costes que tengan en cuenta criterios orientados a la consecución de un desarrollo sostenible.

Es evidente que los dirigentes de todo el mundo han entendido que la nanotecnología es un área de conocimiento que puede propiciar cambios sustanciales en la industria y la sociedad.

 De estos cambios se esperan nuevos y atractivos productos y servicios que lleguen a nuestros hogares cambiando nuestro modus vivendi. Sin embargo, cualquier desarrollo científico-tecnológico necesita unas fuertes inversiones para poder ver sus frutos a medio-largo plazo. Esta necesidad es algo que conocen bien todos los países que lideran la economía mundial, y cada año se invierten varios miles de millones de euros en promocionar la nanotecnología.

La nanotecnología ya es una actividad con peso económico propio. La empresa Lux Research estima, en su informe del año 2007 sobre el mercado mundial de la nanotecnología, que dicho mercado alcanzó los 50.000 millones de dólares en 2006 y que llegará al billón de dólares en el año 2015. Nos encontramos ante un crecimiento exponencial: ¡una ley de Moore de los negocios!

Este suculento mercado beneficiará fundamentalmente a las empresas de aquellos países que ahora están apostando más decididamente por el desarrollo de la nanociencia y la nanotecnología.

De compras por el nano-mercado
A lo largo de este capítulo hemos hablado mucho de productos que están siendo ideados, diseñados y desarrollados en laboratorios. Pero ¿cuántos de estos se pueden adquirir en un supermercado? Aunque la nanotecnología está dando sus primeros pasos, en nuestros mercados ya hay más de un millar de productos que poseen componentes de origen nanotecnológico, según se desprende del Proyecto de Nanotecnologías Emergentes.

Por un lado, los procesadores más modernos que se venden en el mercado tienen ya componentes con partes de dimensiones nanométricas, como se vio en el capítulo 6. Dichos procesadores se usan de forma cotidiana tanto en aplicaciones lúdicas (consolas de videojuegos como la PS3 de Sony, reproductores de música y video como los IPOD Nano de Apple, etc) como en una amplia gama de equipamiento electrónico.

Sin embargo, el área de la electrónica no es el que más “nanoproductos” está introduciendo en el mercado. En la actualidad, nos encontramos en una etapa en la que los nanomateriales y las nanopartículas son usadas con gran profusión y se están incorporando a multitud de productos. En lo que resta de capítulo vamos a mencionar unas cuantas de estas aplicaciones muy cercanas a nuestra vida cotidiana.

La empresa OXONICA (http://www.oxonica.com/) ha desarrollado un producto llamado Optisol, que incorpora nanopartículas de dióxido de titanio, capaces de absorber la radiación ultravioleta.

Este producto se usa en protectores solares, sombras de ojos, maquillajes, etcétera. La misma empresa comercializa otro producto (Envirox), basado en el uso de nanopartículas de óxido de cerio, que actúa como catalizador en vehículos, ahorrando combustible y reduciendo emisiones de dióxido de carbono, y también ha puesto en el mercado nanopartículas metálicas recubiertas de óxido de silicio para ser usadas como marcadores ópticos en estudios biológicos.

Los anteriores ejemplos ilustran cómo una misma empresa produce nanomateriales orientados a tres sectores de consumo totalmente diferentes. Hay cientos de fabricantes consolidados en el mercado de nanopartículas y nanomateriales (puede verse un listado de las mismas en http://nanoparticles. org/). Entre estos, podemos mencionar, además de los ya citados: vidrios con nanopartículas hidrófobas usadas en espejos, automóviles y gafas para evitar que se empañen; ropa elaborada con textiles que incluyen también partículas hidrófobas o bactericidas, de forma que repelen la humedad y tardan más tiempo en ensuciarse; vidrios fabricados con nanopartículas que bloquean el paso de la radiación ultravioleta y así evitan el calentamiento dentro de vehículos y viviendas; materiales cerámicos que incluyen nanopartículas con capacidades antibacterianas lo que les hace útiles para ser usados en aplicaciones sanitarias y como depuradores de aire; frigoríficos y equipos de aire acondicionados que tienen nanopartículas de plata (también antibacterianas) en sus filtros; envases con nanopartículas hidrófobas y antibacterianas capaces de retener mejor la humedad y de preservar por más tiempo los alimentos; auriculares fabricados con polímeros con nanopartículas incrustadas capaces de repeler la grasa y evitar que los dispositivos electrónicos se ensucien, aumentando de esta forma su vida útil; pasta de dientes que incluye nanopartículas que permiten una mejor fijación de flúor en el esmalte dental, etcétera. La lista de productos empieza a ser muy extensa y lo más seguro es que ya estemos usando algunos de estos productos sin caer en la cuenta de su origen nanotecnológico.

Quizá una de las áreas en la que la nanotecnología está teniendo más impacto es en el mundo de los deportes, donde se usan materiales de tipo nanocompuestos (en los que dos materiales diferentes se mezclan de diversas formas pero uno de ellos, al menos, tiene dimensiones nanométricas).

Estos materiales se utilizan para elaborar palos y pelotas de golf, bastones de esquí, mástiles de barcos de vela, etcétera. En otras ocasiones las nanopartículas se usan para otros fines, como en las pelotas de tenis, en las que las nanopartículas arcillosas taponan las oquedades formadas entre los polímeros, evitando la fuga del aire. Una idea similar se ha comenzado a aplicar en los neumáticos de los vehículos, empezando, claro está, por los de Fórmula 1.

Los nanotubos de carbono también han irrumpido en el mundo del deporte. Empresas como Babolat (http://www.babolat.com/) fabrican raquetas de tenis que incorporan estos nanomateriales, aligerando su peso a la vez que aumentan sus prestaciones mecánicas.

Pero quizás uno de los ejemplos más llamativos corresponde a la bicicleta diseñada por la empresa suiza BMC, cuyo cuadro incorpora nanotubos de carbono y ¡pesa menos de un kilogramo! Los nanotubos de carbono también se emplean en la elaboración de palos de hockey, bates de béisbol, etcétera.

Además de todas estas aplicaciones, las moléculas de C60 (fullerenos) ya se usan por empresas como la japonesa Nanodesu para recubrir las bolas que se utilizan en el juego de bolos porque disminuyen la fricción.

Una curiosidad como “postre” de este paseo por el nano-mercado. Recientemente, un restaurante de Nueva York ha entrado en el libro Guiness de los récords por ofrecer el postre más caro del mundo: una delicia de varios chocolates que incluye nanopartículas de oro.

Ya existen casas comerciales dedicadas a producir este “nano-manjar” que, por cierto, no sabemos si tiene un sabor a la altura de su precio.

Nano y sociedad: implicaciones sociales de la tecnología
9
“Éticamente no podríamos construir un ser vivo, pues no somos quién para crear vida, o cambiarla, a partir de sistemas tecnológicos. Pero si yo pudiera hacerlo, supongo que usaría el sistema ese de mover átomos y movería los grupos que forman el ADN, recolocando las estructuras AGTU y formando distintas combinaciones a placer, y así crear un ser vivo como yo quisiera. Haría lo mismo para crear un virus, aunque sería muy peligroso”.
(Rebeca, 1º de Bachillerato, I.E.S. Rosa Chacel).
“Los principales problemas derivados del uso de este tipo de tecnología podría ser que esta se volviese contra nosotros y al ser tan pequeña e imperceptible seamos incapaces de manejarla y detenerla”.
(Eva, 1º de Bachillerato, I.E.S. Marco Fabio Quintiliano).


“Nano”+”Bio”+”Info”+”Cogno”: la convergencia NBIC
Los cambios industriales más profundos que han tenido lugar en la historia han estado ligados a la convergencia de tecnologías. Por lo general, las tecnologías aisladas suelen tener cierto éxito para resolver problemas en determinadas áreas, hasta que alcanzan cierta madurez y se estancan, generando productos que son cada vez menos innovadores.

Por ejemplo, la industria aeronáutica basada en el uso de motores de explosión y hélices alcanzó gran perfección a mediados del siglo XX, pero no permitía ya mejorar las prestaciones de los aviones debido a limitaciones de tipo físico. Hubo que esperar a la llegada de los motores a reacción basados en conceptos y tecnologías totalmente diferentes.

Cuando dos o más disciplinas científico-tecnológicas interactúan entre sí pueden producir una nueva tecnología resultante que permite avanzar de forma más rápida que con la simple suma de conocimientos de cada una de ellas por separado.

En estos casos se dice que “dos más dos suman más que cuatro” o que entre las tecnologías ha habido “sinergias”. Por ejemplo, de la convergencia de la electrónica, la teoría de la información y las telecomunicaciones ha surgido el fenómeno de la sociedad de la información, la era digital, en la que todos estamos conectados de forma instantánea y global.

La misma nanotecnología también se puede considerar como una convergencia de diferentes conocimientos y tecnologías que nos permiten explorar y entender el nanomundo y obtener provecho de este conocimiento.

En estos momentos asistimos a un nuevo proceso de convergencia tecnológica en el que se están aglutinando conocimientos y metodologías que provienen de la nanotecnología, la biotecnología, las omnipresentes tecnologías de la información y telecomunicaciones y las llamadas ciencias cognitivas (que incluyen las neurociencias).

 Esta convergencia se ha denominado “convergencia NBIC”. Estas siglas se refieren a la combinación de los prefijos “nano”, “bio”, “info” y “cogno”. En cada una de estas ramas científico-técnicas existen unas unidades de trabajo fundamentales que son bien conocidas: en el área “nano” las unidades de trabajo son los átomos y las moléculas, en el área “bio” las unidades son el gen y la proteína, en el área “info” la unidad son los “bits” de información, y, finalmente, las neuronas son las unidades básicas del área “cogno”. Como vemos, la convergencia NBIC abarca parte del macro-, micro- y nano-mundo.

¿Qué se espera de esta convergencia NBIC? El objetivo de la convergencia es producir nano-bio-dispositivos, que incidan en nuestra salud, nos permitan interaccionar mejor entre nosotros o con nuestro entorno y que generen información con la que efectuar una adecuada toma de decisiones.

Explicaremos esto con más detalle. Imaginemos que disponemos de pequeños dispositivos bio-sensores que permiten hacer análisis y diagnósticos en tiempo real, proporcionándonos información sobre nuestra salud (temperatura, tensión arterial, niveles de colesterol y de azúcar en la sangre, presencia de ciertos anticuerpos, conteo de glóbulos rojos, tensión ocular, etcétera).

Dichos dispositivos podrán estar continuamente conectados con servicios médicos distantes que efectuarían un mejor seguimiento y valoración del estado de salud de las personas. En algunos casos, los tratamientos basados en dispensación controlada de nanofármacos podrán ser activados de forma remota.

También se sintetizarán nanomateriales con propiedades electromecánicas similares a las de las fibras músculares con los que mejorar la motricidad de las personas, ya sea a través de su incorporación en la masa muscular debilitada o mediante la fabricación de prendas de vestir que actúen como refuerzo externo de los músculos.

Del mismo modo se fabricarán prótesis degradables e inteligentes capaces de regenerar tejidos óseos y nerviosos, proporcionándonos información sobre dicho proceso de generación y minimizando la posibilidad de rechazo y de infección.

 Estos tejidos y prótesis permitirán recuperar o mejorar la movilidad de personas que hayan sufrido traumatismos, lesiones de médula espinal o padezcan enfermedades neurodegenerativas.

Se fabricarán nanodispositivos (manipuladores, bisturís, microcámaras, sistemas de posicionamiento y de realidad virtual) que permitirán efectuar intervenciones quirúrgicas mucho menos agresivas y, si es necesario, de forma remota. Ahora todo esto parece ciencia ficción pero algunas de estas ideas ya están siendo exploradas en laboratorios de centros de investigación y de hospitales.

Una visión más futurista de la convergencia NBIC predice que en un futuro los seres humanos dispondremos de una pléyade de nanodispositivos (¿nano-robots?) que restaurarán tejidos de forma más rápida que nuestros propios mecanismos naturales, o que detectarán y repararán anomalías a nivel genético o metabólico (por ejemplo, la aparición de tumores en sus primeras fases de formación).

 Esto significa que sortearemos mejor las lesiones y las enfermedades, con el consiguiente aumento de la esperanza de vida. Pero ello, a su vez, puede ocasionar enormes problemas sociales ya que los sistemas sanitarios de los países desarrollados y en vías de desarrollo no podrán soportar los niveles asistenciales de una población envejecida (a no ser que la telemedicina esté totalmente implantada).

Por otro lado, dicho aumento de la esperanza de vida puede tener devastadoras consecuencias ecológicas debido a la creciente necesidad de agua potable, alimentos y recursos energéticos. Nuevamente tenemos los dos lados de la moneda: detrás de los beneficios de la tecnología pueden esconderse ciertos riesgos que hay que conocer y valorar para anticipar sus efectos y, actuando con cautela, evitar o minimizar su impacto.

Llevada al límite, la convergencia NBIC podría ser usada para mejorar nuestras capacidades físicas y mentales, por lo que no se descarta la posibilidad de llegar a convertirnos en “superhombres” mediante la aplicación de dispositivos y máquinas basadas en el conocimiento NBIC. Esta visión radical, muy cercana a la corriente intelectual desarrollada en la segunda mitad del siglo XX y denominada “transhumanismo”, contrasta con otra propuesta menos conflictiva que plantea el uso de la convergencia NBIC como herramienta para enfrentarse a enfermedades como la diabetes, los distintos tipos de cáncer, alzhéimer, parkinson u otras patologías neuro-degenerativas asociadas al envejecimiento, así como mejorar la vida de invidentes, sordos, para y tetrapléjicos, personas que han sufrido amputaciones, etcétera.


Nanotecnología, sostenibilidad y responsabilidad

No obstante, como todo en la vida, la nanotecnología presenta las dos caras de la misma moneda. Acabamos de mencionar que la convergencia NBIC puede generar, indirectamente, problemas de sostenibilidad debido al aumento de la población.

Además, la nanotecnología por si misma puede tener otros impactos negativos. muchos de los productos que la nanotecnología ha comenzado a producir están basados en nanopartículas y nanomateriales. En algunos casos no se sabe cómo estos nuevos materiales afectarán a nuestro entorno y nuestra salud.

Por eso desde distintos organismos se está impulsando la realización de estudios para poder establecer normas de uso y manipulación, reglamentos sobre niveles de exposición en las fábricas, etcétera. Se dan más detalles en el cuadro dedicado a nano-eco-toxicología.
EEE 9.2 La nanotecnología como impulsora del desarrollo sostenible
¿En que áreas clave tendrá incidencia la nanotecnología para impulsar el desarrollo sostenible? Según el Instituto Meridian de EE.UU., vinculado al Proyecto Milenio de la Organización de las Naciones Unidas (http://www.un.org/spanish/millenniumgoals/) la nanotecnología puede incidir en las siguientes áreas: Almacenamiento, producción y conversión de energía.

 La emisión de gases nocivos (como HCN) o que causan el calentamiento del planeta (CO2) puede reducirse si mejoramos los catalizadores (nanopartículas o materiales nanoporosos) o si usamos nuevas fuentes de energía como pueden ser las pilas de combustible, células solares de nueva generación.

Tratamiento y descontaminación del agua y de la atmósfera. Incluye tecnologías de remediación basadas en nanofiltrado, mejora de los métodos de desalación, y control de calidad y seguridad ambiental mediante redes de nanosensores.

Además existen propuestas para utilizar nanopartículas, nanotubos de carbono o sistemas nanoporosos, para encerrar el dióxido de carbono y otras moléculas contaminantes. Por cierto, la gestión de recursos hídricos es de gran importancia en países como España, donde el agua potable es un recurso cada vez más escaso ante el proceso de desertización que sufre la Península Ibérica.

Diagnóstico de enfermedades, administración de fármacos y monitorización de la salud. Este tema ya ha sido tratado en capítulos anteriores. Mejora de la producción agrícola, de las tecnologías de la alimentación (envasado, conservación, etiquetado, etcétera) y el control de plagas.

Nuevos materiales para la automoción y la construcción. El aligeramiento de ciertas partes de vehículos y aviones mediante el uso de nanotubos de carbono o de “aceros plásticos” reducirá el consumo de carburantes.




Nano-eco-toxicología: “Hombre prevenido vale por dos”
La generación de nuevos conocimientos científicos siempre es un hecho positivo, ya que estos nos permiten ampliar nuestros horizontes, mirar más lejos. Por el contrario, ya no es posible decir rotundamente lo mismo de las aplicaciones que se dan a dicho bagaje científico.

 Todos sabemos que el avance tecnológico proporciona enormes mejoras en la calidad de vida de las personas, en su salud, alimentación, vestimenta, vivienda, medios de transporte, educación, ocio, etcétera. Sin embargo, también percibimos que hay otra cara en la moneda tecnológica cuando leemos u oímos noticias sobre la contaminación de la atmósfera, ríos y mares, el cambio climático, la rápida extinción de especies biológicas, los accidentes de tráfico, la adicción de algunas personas a videojuegos, la violencia que éstos pueden generar, etcétera.

 Está claro que el uso de las tecnologías debe regularse para hacer que el balance entre sus impactos positivos y negativos sea siempre favorable a los primeros. Esta tarea de regulación corresponde a organismos nacionales e internacionales, que deben estar asesorados por expertos.

La nanotecnología no es una excepción y presenta también esa doble cara: por un lado, promete enormes y revolucionarias posibilidades y, por el otro, hay algunos puntos oscuros que conviene conocer y aclarar antes de lanzarse a su uso masivo. En diversos medios de comunicación se ha mencionado que los futuros nano-robots podrían ser usados como sistemas espía, violando nuestra intimidad o, mucho peor, como armas letales selectivas, destinadas a destruir personas o grupos concretos.

Por el contrario, la nanotecnología ha comenzado ya a introducirse en productos concretos, de una forma mucho menos sofisticada pero muy práctica, mediante el uso de nanopartículas y otros nanomateriales.

Durante los últimos años ha surgido cierta preocupación por la proliferación del uso de nanopartículas. Aunque las sustancias de las que están fabricadas las nanopartículas son sobradamente conocidas, ya se sabe que la materia, cuando se presenta con tamaño nanométrico muestra propiedades distintas de las que posee a escala macroscópica. Esto es precisamente lo que abre ciertos interrogantes sobre las nanopartículas.

Pongamos un ejemplo. Supongamos que durante un proceso de fabricación determinado tenemos que manipular una material sólido pulverizado. Sabemos que todas las sustancias deben tener su correspondiente ficha de seguridad donde se nos avisa de su forma de envasado y manipulación, sus efectos en caso de intoxicación, etcétera. Sin embargo las pruebas de toxicidad de esa sustancia fueron hechas para su formato “macroscópico”. Pero ¿qué ocurre si el material ha sido pulverizado hasta que las partículas que lo forman tienen 50, 30, ó 10 nm de diámetro?

La respuesta es que realmente no conocemos sus efectos ya que la materia se comporta de forma diferente en función de su tamaño. Es decir, no se puede asegurar que una partícula de cierto material con 10 nm de diámetro no sea tóxica porque el mismo material, cuando se presenta en forma de partícula de 1000 nm o más, no lo sea. Otro riesgo, las nanopartículas de oro son aparentemente inocuas en el torrente sanguíneo por su pequeño tamaño, pero ¿quién puede asegurar que con el tiempo no se agregan entre ellas pudiendo provocar un trombo?

La “nano-eco-toxicología” reúne un conjunto de actividades que tienen como finalidad hacer que el desarrollo de las nanotecnologías sea seguro para la salud de los empleados en contacto con nanomateriales y nanodispositivos, y para la de los pacientes sometidos a nano-tratamientos. Del mismo modo las nanotecnologías deben ser respetuosas con el medio ambiente.

Para lograr minimizar los riesgos de las nanotecnologías se deben hacer adecuadas y precisas mediciones de dosis, impactos, etcétera, gracias a sofisticadas medidas de las propiedades de estos nanomateriales. De ello se encarga la nanometrología. Como resultado, se elaborarán normas, guías y procedimientos que hagan que las nanotecnologías se incorporen a nuestras vidas de forma segura.

Dado que los nuevos nanomateriales podrían ser perniciosos para los humanos, los demás seres vivos y para el medioambiente, es necesario seguir el principio de precaución y hacer un estudio exhaustivo del impacto de sustancias ya conocidas y de las nuevas que se sintetizan en los laboratorios cuando se presentan en formato nanométrico.

 Todos estos estudios se agrupan en lo que se ha dado en llamar “Nano-eco-toxicología”. Los trabajos en nano-eco-toxicología permitirán establecer en el futuro una normativa para que los productos basados en nanotecnología puedan llegar a los mercados de forma que los consumidores tengan garantías sobre su inocuidad para los seres vivos y el medioambiente.

 Las actividades que se llevan a cabo dentro de la nano-eco-toxicología están muy relacionadas con las técnicas de medición de diferentes magnitudes en la nanoescala. La nanometrología se ocupa precisamente de facilitar este tipo Nanociencia y Nanotecnología.

 Entre la ciencia ficción del presente y la tecnología del futuro de mediciones y de asegurar que se hacen de forma correcta, siguiendo protocolos claros, en cualquier lugar del mundo. En la actualidad diversos organismos japoneses, norteamericanos, chinos, y europeos están realizando una intensa actividad en este campo. En España, los centros que están involucrados en estos estudios sobre normativa y metrología son AENOR (http://www.aenor.es) y el Centro Español de Metrología (http://www.cem.es), respectivamente.

Gracias a su actividad el “aterrizaje” de la nanotecnología en nuestras vidas será más controlado, minimizando sus posibles efectos negativos Por todo esto, a pesar de las promesas y ventajas sin límite que vienen de la mano de la nanotecnología, existen investigadores, asociaciones, y organismos que reclaman que su implantación se lleve a cabo de forma muy controlada, sopesando sus ventajas y riesgos.

Las administraciones públicas y muchas empresas han tenido en cuenta esta situación y están tomando medidas para que la nanorevolución sea más segura y controlada, transmitiendo confianza a los ciudadanos.

La Comisión Europea estableció en 2008 un código de conducta para la investigación responsable en los campos de las nanociencias y las nanotecnologías. Este código incluye siete principios básicos que deben ser adoptados por los Estados miembros de la Unión Europea. Las actividades de investigación deberían:
(I)                ser comprensibles para el público;
(II)              ser seguras, éticas y contribuir al desarrollo sostenible;
(III)            llevarse a cabo de acuerdo con el principio de precaución, anticipando sus posibles impactos;
(IV)          contar con una gestión transparente y que garantice el derecho legítimo de acceso a la información;
(V)            cumplir las normas científicas más exigentes, incluyendo las buenas prácticas de laboratorio;
(VI)          poseer la máxima creatividad, flexibilidad y capacidad de planificación; y
(VII)        ser asumidas de forma responsable por los investigadores y los centros de investigación ante las repercusiones sociales, medioambientales y para la salud humana que estas tengan.


“WEBOTECA”–Nanociencia y Nanotecnología en la Red
A continuación se muestran varios enlaces a páginas web en los que encontrar información sobre diversos aspectos de la nanotecnología. Gran parte de estos recursos corresponden a páginas escritas en inglés, el lenguaje internacional en el entorno científico. ¡Buen viaje!

RECURSOS EDUCATIVOS
The Nanotechnology Group:
Grupo de Educación Multidisciplinar de la Universidad de Wisconsin (EE.UU.):
Recursos educativos de la Iniciativa Nacional de Nanotecnología de los EE.UU.:
Iniciativa “Nano para niños” de la Rice University (EE.UU.):
Una página con muchas explicaciones, imágenes y animaciones:
Portal de recursos educativos de nanociencia y nanotecnología:
Otra página web para niños, NANOLAND:

Exposición NANO en la Ciudad de las Ciencias y la Industria de París (Francia):
http://www.cite- ciences.fr/francais/ala_cite/expositions/nanotechnologies/index.html
Laboratorio Virtual de Nanotecnología de la Universidad de Virginia (EE.UU):
Una página web sobre nanotubos de carbono:
Concurso NANO QUEST de Lego:
IMAGENES, VIDEOS, ETCÉTERA
La historia de la microscopía en imágenes:
Concurso de imágenes científicas obtenidas por microscopios SMP (SPMAGE07):
Concurso FOTCIENCIA:
NANOTEC S.L. En la página web de esta empresa que fabrica microscopios SPM hay un interesantebanco de imágenes:

Galería de imágenes y animaciones sobre el funcionamiento de microscopios SPM de la empresa Nanoscience Instruments:
Imágenes y videos recopilados por el Centro de Nanotecnología de la NASA:
Potencias de 10. Un sencillo e interesante paseo desde el nanomundo al universo:
Galerías de imágenes e ideas futuristas sobre Nanomedicina en la Fundación Foresight:
NANOZONE. Sitio web con interesantes presentaciones:

REDES DE INVESTIGACION
La Red Española de Nanotecnología (NANOSPAIN) es el punto de encuentro de casi 250 grupos de investigación españoles:
Plataforma Tecnológica sobre Nanotecnología e Integración de Sistemas Inteligentes (GENESIS):
Red Europea de Nanotecnología:

NANOTECNOLOGIA Y DESARROLLO SOSTENIBLE
El Instituto Meridian estudia como aplicar las nanotecnologías en los países pobres:

NANOTECNOLOGÍA, CULTURA Y ARTE
Concurso y galería NANOART 21:

REPOSITORIOS DE INFORMACIÓN, NOTICIAS, BLOGS
Blog “Creamos el futuro” de la Fundación Telefónica:
La transcripción del famoso discurso de Feynman:

Otras fuentes de información:

PARA SABER MÁS...ACUDAMOS A SITIOS ESPECIALIZADOS
La web NANOHUB, el mundo de la nano-simulación:
Grupo de investigación sobre estructura de sistemas nanométricos:
Información sobre el uso de nanopartículas:
También la NASA investiga en nanotecnología:
Y en la existencia de vida en otros planetas (Instituto de Astrobiología de la NASA):
Un sitio para la prospectiva en nanotecnología: Foresight Nanotech Institute:
Nanorobots desarrollados por R. A. Freitas:
El futuro de la nanomedicina según el Instituto de la Salud de USA (NIH):





No hay comentarios.:

Publicar un comentario