NANOCIENCIA Y NANOTECNOLOGÍA
Entre la ciencia ficción del presente y la tecnología del futuro
Contenido
1. NANO-INTRO: El nano-mundo a vista de pájaro
El mundo invisible
Nanotecnología... ¿Qué significa esta palabra?
La tecnología actual o ¿hasta dónde es posible reducir el tamaño
de un objeto?
CE La teoría cuántica
La tecnología actual frente a la del futuro: Top-down frente a
Bottom-up
Los orígenes de la nanotecnología
CE El discurso de Feynman “There is plenty of room at the bottom”
CE ¿Cómo llegar a ser nanotecnólog@?
2. NANO-HERRAMIENTAS: El arte de ver, tocar, mover y escribir
Microscopios para ver
Microscopios de campo cercano: no sólo los ojos, sino también las
manos
CE La “magia” de la física cuántica para construir microscopios
Manipulación de la materia mediante el uso de microscopios
Otras técnicas litográficas
CE ALBA, el sincrotrón español: una herramienta kilométrica para
estudiar objetos nanométricos
3. NANO-MATERIALES: Nuevos materiales para un nuevo siglo
En un mundo de carbono
El balón de fútbol más pequeño del universo: los fullerenos
Nanotubos de carbono: el
hilo mágico
CE Construyendo “macro”-tubos de carbono
CE Los nanotubos como un nuevo acero
CE La tela de araña y la cabra Spiderman
4. NANO-QUÍMICA: La danza de las moléculas
Construcción de dispositivos moleculares mediante la aproximación
bottom-up
La química supramolecular y el diseño de moléculas a la carta
CE La nanotecnología mueve montañas: Máquinas moleculares
Las monocapas autoensambladas
Nanopartículas
5. NANO-BIOTECNOLOGÍA: En busca de los secretos de la vida
Primera estación: el micromundo
CE Los virus: nanomáquinas que evolucionan
¡Pero estamos hechos de nanocosas!
CE Origen de la vida, biología sintética y nanotecnología
CE Un zoom sobre un ser vivo: de lo macro a lo nano sin salir de
la charca
Manipulando nano-bio-objetos
CE El ADN como nanobiopolímero
Hacia la nanomedicina
Nanosubmarinos y nanorobots en nuestro cuerpo
El fabuloso mundo de los nanobiosensores
6. NANO-ELECTRÓNICA: Del silicio a las moléculas
El siglo XX: la era de la Electrónica
¿Algún día dejarán de usarse los semiconductores para fabricar
“chips”?
Cuando la ley de Ohm da problemas: transporte balístico
Y además...¡más efectos cuánticos!
CE Mecánica Cuántica encima de una mesa
La nueva electrónica: moléculas, nanotubos, nanohilos, puntos
cuánticos
CE Los ordenadores cuánticos y la nanotecnología
Más allá de la electrónica: nanofotónica, espintrónica,
biocomputadores y “ciempiés”
Nanociencia y Nanotecnología. Entre la ciencia ficción del
presente y la tecnología del futuro
7. NANO-SIMULACIÓN: El laboratorio en un ordenador
El método científico y las matemáticas
Calcular para predecir
De las reglas de cálculo a los superordenadores
Simulación: una forma de ahorrar recursos y tiempo
Cálculos en la nanoescala: de los cálculos ab-initio a los métodos
semi-clásico
8. NANO-APLICACIONES: Del laboratorio al escaparate
Nanomateriales
Nanoelectrónica
Nanobiotecnología y nanomedicina
Instrumentación, sensores, actuadores, ensambladores
La llegada de la nanotecnología: un proceso de varias etapas
De compras por el nano-mercado
9. NANO Y SOCIEDAD: implicaciones sociales de la nanotecnología
Algo más que la nueva revolución industrial
“Nano”+”Bio”+”Info”+”Cogno”: La convergencia NBIC
Nanotecnología, sostenibilidad y responsabilidad
CE Nano-eco-toxicología: “Hombre prevenido vale por dos”
El impacto mediático de la nanotecnología
CE “WEBOTECA” – Nanociencia y Nanotecnología en la Red
Nano-intro:
El Nano-mundo a vista de pájaro
1
Una
vez establecida la diferencia entre ciencia y tecnología, pasemos al
significado de la palabra “nano”. Nano es un prefijo proveniente del vocablo
griego νανοϛ que significa diminuto, enano,
pequeño. Este prefijo se utiliza en el sistema internacional (S.I.) de unidades
para indicar un factor de 10-9 (es decir, multiplicar algo por 0.000000001, o
la mil millonésima parte de algo).
Así
podríamos decir que nanociencia es la ciencia que puede realizarse con objetos
de tamaño “mil-millonesimométrico” (o mejor nanométrico). Por tanto, un
nanómetro es la millonésima parte de un milímetro, una longitud 80,000 veces
más pequeña que el diámetro de un cabello humano.
A
su vez, nanotecnología será la tecnología generada con objetos cuyo tamaño
oscila desde una décima de nanómetro a una centena de nanómetro. Esta escala de
tamaños es un tanto arbitraria. El límite inferior (una décima de nanómetro)
parece claro, ya que por debajo del átomo no hay “objetos” manipulables. Sin
embargo, el límite superior (una centena de nanómetro) es una referencia para
indicar que los objetos deben de estar por debajo de la micra.
Hoy
en día tenemos el conocimiento necesario para mover, manipular y construir
objetos de estos tamaños (nanociencia), que serán utilizados en un futuro
cercano para realizar una función específica dentro de un determinado
dispositivo (nanotecnología).
Dicho
de otra manera: actualmente hemos avanzado bastante en lo que a nanociencia se
refiere y estamos desarrollando las primeras aplicaciones nanotecnológicas.
Del
gran impacto que está teniendo actualmente la nanotecnología y de las enormes
aplicaciones que de ella se derivan, proviene la gran proliferación del prefijo
“nano”. Así, oímos hablar de disciplinas como nanoquímica, nanoelectrónica,
nanomedicina o nanobiotecnología; o de objetos tales como nanopartículas,
nanotubos, nanoimanes o nanomotores.
En
definitiva, el colocar el prefijo “nano” delante de una palabra determinada nos
indica que ese campo se va estudiar desde sus componentes más pequeños. Estos pueden
considerarse que son los actores del nanomundo, objetos con tamaños
comprendidos entre 0.1 nm y 100 nm.
Sin
embargo, uno podría preguntarse ¿cuál es entonces la verdadera diferencia que
existe entre la nanotecnología y la química? ¿No han intentado los químicos
trabajar con átomos desde que Dalton en 1808 postulase su existencia? La
diferencia reside precisamente en la forma en la que se manejan los objetos.
Mientras
que la química ha trabajado tradicionalmente desde un punto de vista
macroscópico y global (por ejemplo, siguiendo las reacciones que ocurren en un
tubo de ensayo mediante cambios en el color, temperatura o pH), la nanociencia
sigue estos procesos a una escala atómica o molecular, pero de manera
individual: entendiendo, manipulando y actuando sobre una molécula en
particular (o un átomo, o una nanopartícula, o una proteína...).
EEE
1.4 Superficie y volumen
A
medida que los objetos se hacen más pequeños, se van convirtiendo más “en
superficies”, donde los átomos tienen menos vecinos, tienen la posibilidad de
escapar antes del material, pueden “sentir” mejor la presencia de otros átomos
externos y reaccionar con ellos. Estas modificaciones en las propiedades se
conocen como efectos de tamaño finito.
EEE
1.5 Un “no experimento”
En
1774, B. Franklin observó que, en las islas Bermudas, los pescadores echaban
aceite en las aguas del mar para apaciguar las olas y poder ver más fácilmente
los peces bajo el agua. A raíz de esta observación, a Franklin se le ocurrió
verter una cucharada de aceite en un puerto para ver que ocurría.
Sorprendentemente, observó como casi
inmediatamente se calmaban las olas en un área de varios metros cuadrados, y
como este efecto “se iba expandiendo despacio hasta afectar a aproximadamente
medio acre, convirtiendo la superficie del agua en un suave espejo”. Franklin
no hizo la cuenta, pero si hubiese sabido algo más acerca de la molécula de
aceite (ácido oleico), se habría dado cuenta de que una cucharada de unos 2 ml
distribuida sobre medio acre (0.2 hectáreas) corresponde a un espesor de la
capa de aceite de aproximadamente 2 nm.
Unos
100 años más tarde, Lord Rayleigh se dio cuenta de que el espesor del aceite en
agua es de una sola capa molecular. ¡Bastaba una sola capa de moléculas para
cambiar radicalmente las propiedades del agua del puerto!
El
segundo problema con que nos encontramos en esta carrera sin fin hacia la
miniaturización reside en que para tamaños del orden o inferiores al nm
aparecen efectos que son diferentes a los que gobiernan la materia a escala
macroscópica, los llamados efectos cuánticos.
La
física cuántica requiere una nueva forma de pensar. En nuestro mundo las
ecuaciones de Newton definen el movimiento de los cuerpos, las de Maxwell la
radiación electromagnética y la ley de Ohm la electricidad.
Éstas
y otras leyes simples dejan de ser válidas cuando tratamos con objetos muy
pequeños. La física cuántica, con sus paradojas, nos demuestra nuestra
incapacidad para conocer de manera absoluta el mundo que nos rodea, ya que sólo
seremos capaces de describir la probabilidad de que un objeto esté en un
determinado lugar o de que un suceso ocurra.
Así,
con el desarrollo de la física cuántica en la primera mitad del siglo XX, el
concepto de átomo pasó de ser una certeza que nos permitía explicar la
naturaleza y hacer predicciones fiables, a ser un concepto etéreo y de difícil
comprensión dentro de nuestra lógica cartesiana.
Estas
nuevas leyes y fórmulas descritas por la teoría cuántica son verdaderamente
sorprendentes ya que contradicen nuestra lógica basada en la experiencia en el
mundo cotidiano. Los principales conceptos de la teoría cuántica están
resumidos en el cuadro específico “la teoría cuántica”, aunque te recomendamos
que la consumas con moderación: ¡podrías difractarte o “tunelear” y aparecer en
la habitación contigua!
EEE
1.6 La Física
¿Sabías
que la palabra física viene del término griego φύσις
que
significa naturaleza? De hecho, fue en la antigua Grecia donde se desarrolló
esta disciplina de forma cercana a la filosofía, como una forma de explicar el
mundo que nos rodea de una manera global. Busca en la red los científicos que
recibieron el Premio Nobel de Física desde 1901, fecha en el que se instauró el
galardón.
La teoría cuántica
En
el mundo cotidiano en el que nos desenvolvemos, las distancias típicas entre
objetos son las que separan este libro de tus ojos: se pueden medir con una
cinta métrica. Todo lo que mida milímetros o diste kilómetros de nosotros forma
parte de nuestro mundo, porque lo abarcamos con la vista y tenemos una imagen
de estos objetos.
Cuando
algo sobrepasa estos tamaños nos cuesta imaginarlo o entenderlo. Nos resulta
difícil comprender cómo de pequeño es un virus, o la distancia entre la Tierra
y la Luna. Sin embargo, esto es una apreciación puramente sensorial, porque
objetos y distancias más grandes y más pequeñas siguen obedeciendo las mismas
leyes, las llamadas leyes de Newton.
Newton,
a finales del siglo XVII, con sus famosas leyes recogidas en el libro “Philosophiae
Naturalis Principia Mathematica”, estableció una serie de principios
universales que afectan tanto al movimiento de un grano de polen como a un
cometa en su viaje interplanetario.
Más
tarde, en el siglo XIX, fue R. Maxwell quien escribió las ecuaciones referentes
a la radiación electromagnética. Sin embargo, estas leyes, que suelen
denominarse “clásicas”, dejan de ser válidas en dos casos: cuando las
velocidades de los objetos son elevadas (cercanas a la de la luz) y cuando las
dimensiones de los objetos son muy pequeñas (por debajo del nanómetro).
La
primera de las excepciones la solventó A. Einstein con su teoría de la
relatividad (ver la unidad didáctica ‘La huella de Einstein’, editada por la
FECYT en 2005). La segunda se complementa dentro de lo que se ha llamado teoría
cuántica, de la que vamos a hablar aquí.
A
diferencia de la relatividad, enunciada por Einstein, la teoría cuántica se ha
ido construyendo poco a poco con las contribuciones de muchos científicos que,
desde principios del siglo XX, se dieron cuenta de que el mundo atómico no es
tan simple como el nuestro, y que en él aparecen comportamientos que
contradicen nuestra experiencia y nuestra lógica newtoniana.
Estas
nuevas observaciones, que no se entendían, requerían de una nueva física para
explicarlas. La nueva teoría debía explicar por qué los átomos son estables, el
color de los materiales, la estructura de la tabla periódica, por qué se
producen los enlaces químicos... Dos son los motivos por los que la teoría
cuántica se hace tan difícil: primero no existe una formulación única ya que
son conclusiones que diversos científicos fueron estableciendo a lo largo de
décadas y, segundo, contradice nuestra experiencia e intuición, lo que ha
generado sinfín de debates filosóficos sobre la naturaleza de la materia.
El
nombre de “Teoría Cuántica” o “Mecánica Cuántica” proviene del descubrimiento,
realizado por M. Planck alrededor de 1900, de que la energía no es continua,
sino que sólo existe y se puede intercambiar en paquetes o grupos llamados
cuantos. Así, la energía se parece más a partículas de materia que a una
propiedad de la materia. La energía del paquete más pequeño es una propiedad
fundamental de la naturaleza relacionada con una constante, la constante de
Planck, llamada h, y cuyo valor es de 6,63x10-34 Js.
Como
se puede apreciar, su valor es muy pequeño en las unidades de nuestro mundo y,
por tanto, podemos despreciarla en nuestra vida cotidiana. Pero no en el
nanomundo (el de los átomos, moléculas, partículas...) ni mucho más “al fondo”
(en el mundo de las partículas subatómicas), donde se convierte en una magnitud
muy respetable. La teoría cuántica nos permite entender el átomo.
N. Bohr fue quien estableció la primera imagen
moderna del átomo utilizando la constante de Planck, y desencadenando con sus
afirmaciones el comienzo de la era cuántica, en 1905. Los electrones se
organizan alrededor del núcleo atómico, pero no lo hacen tomando cualquier
valor, como pasaría si fueran planetas que orbitan en torno a una estrella
(modelo atómico de Rutherford).
Los
electrones sólo pueden tener unos valores fijos de energía y, por tanto, sólo
unas ciertas órbitas son permitidas.
Cualquier
energía que no esté permitida dará lugar a órbitas inestables en las que no
podrá mantenerse el electrón. Es como si los electrones se ordenasen alrededor
del núcleo como yo ordeno los libros en mi estantería: sólo pueden estar en una
balda o en la siguiente, nunca entre dos niveles.
La forma de pasar de un nivel bajo a otro alto
es aportando una energía precisa. En la estantería sería la necesaria para que
mi brazo venza la gravedad durante unos centímetros, y en un átomo, por
ejemplo, la aportada por un fotón (onda electromagnética con una energía
definida). Esta descripción no tiene sentido dentro de las leyes ‘clásicas’ ya
que, en éstas, el electrón, como un satélite artificial alrededor de la tierra,
puede tener órbitas estables para cualquier energía. Estas ideas fueron
completadas por W. Heisenberg y E. Schrödinger en la década de 1920, quienes
definieron al electrón no como una partícula (es decir un objeto dotado de masa
y un momento cuando se mueve), sino como una función matemática llamada función
de onda, que denotaron con la letra griega Ψ, y cuya amplitud elevada al cuadrado
nos da la probabilidad de encontrar al electrón dentro de un átomo en una
posición determinada en un momento dado.
Es
decir, un electrón en un átomo deja de ser una partícula puntual, situada en un
lugar del espacio y moviéndose a una velocidad bien definida, para convertirse
en algo similar a una nube cargada deslocalizada, que está en todas partes, y
la probabilidad de encontrarlo en un punto determinado depende de la densidad
que tenga la nube en dicho punto.
Esta
visualización de un electrón en un átomo como una nube de carga fue propuesta
por R. Feynman, del que hablamos en otro cuadro específico de este capítulo.
Hemos hecho hincapié en que se trata de un electrón en un átomo, ya que si se
tratase de un electrón libre, que se ha escapado del entorno del núcleo, éste
se podría visualizar de otra forma: como una onda.
Este
es otro de los puntos importantes de la teoría cuántica: ondas y partículas se
mezclan como un todo. Ya Einstein se dio cuenta de que la luz podía comportarse
como una partícula, introduciendo el concepto de fotón (de hecho, Einstein ganó
el premio Nobel por este trabajo y no por la teoría de la relatividad, como
mucha gente piensa).
Un poco más tarde L. de Broglie descubrió que,
sorprendentemente, también las partículas pequeñas, como el electrón, pueden
comportarse como ondas. Esto es asombroso, ya que contradice toda nuestra experiencia del concepto de partícula: objeto
pequeño, que tiene una masa, una velocidad y una posición determinada en el
espacio.
Esta
naturaleza ondulatoria de la materia se manifiesta con más énfasis cuando el
objeto se mueve a bajas velocidades o tiene una masa pequeña. Así en el mundo
atómico y subatómico todo parece mezclarse: materia, ondas y energía se
comportan unas como otras. Esta mezcla de propiedades llevó a Heisenberg a
postular que existen magnitudes complementarias, como posición y velocidad,
energía y tiempo, de manera que si definimos bien una de ellas, la otra queda
completamente indeterminada.
Así
y, contrariamente a los principios de la
física clásica, nunca se pueden determinar o medir simultáneamente ambas
magnitudes. Esto se conoce como el principio de incertidumbre de Heisenberg.
Hemos
dicho que la presencia de una partícula en un punto se calcula a partir de una
función matemática, que se conoce como la función de onda de Schrödinger, Ψ.
Esta función se obtiene al resolver una ecuación, la llamada ecuación de onda,
que junto con la ecuación de Einstein (E=mc2) es una de las ecuaciones más
importantes de la física y que reproducimos para que le perdáis el miedo. De
forma abreviada en matemáticas se escribe como:
F.Bloch
(físico alemán que en 1928 explicó el movimiento de los electrones en los
cristales).
Esta
teoría cuántica permitía entender procesos de la naturaleza que eran imposibles
de comprender utilizando las leyes clásicas. Sin embargo, no daba una
explicación satisfactoria, sino que proponía un conjunto de normas matemáticas
y conceptos estadísticos que llegaban a funcionar haciendo predicciones que se
verificaban una y otra vez.
Parecía
que la naturaleza obedecía leyes estadísticas más que deterministas. Esto hizo
que Einstein no apoyase la teoría cuántica diciendo su famosa frase: “God does
not play dice” (Dios no juega a los dados). Para evaluar las consecuencias de
todos estos nuevos descubrimientos y teorías en la concepción del mundo, se
juntaron los científicos más relevantes en Copenhague .
Allí
Bohr propuso que la naturaleza no es más que lo que tú determinas cuando haces
una medida u observación. Hasta entonces nada existe. La realidad no sería más
que un estado mezcla de todos sus estados posibles, y únicamente después de
realizar una medida u observación puedes definirla. Schrödinger ilustró estos
conceptos con su famosa paradoja del gato encerrado en una caja con una ampolla
de veneno, tal que la ampolla puede estar rota con una probabilidad del 50%
(con lo que el gato estaría muerto) o
entera con otro 50% (gato vivo).
Como
la caja está cerrada no sabemos si el gato está vivo o muerto. Eso sería la interpretación
clásica. La interpretación cuántica es que mientras tú no abras la caja el gato
no estaría ni vivo ni muerto, sino vivo y muerto a la vez, en un estado mezcla
definido por una función matemática que nos da la probabilidad de que esté en
uno de los dos estados posibles. El mundo cuántico es definitivamente
paradójico.
Sin
embargo, esta teoría e interpretación de la naturaleza no tuvo una aceptación
total: para muchos científicos como Einstein, el problema residía en nuestra
incapacidad para determinar todos los factores que influyen en un proceso, y
por tanto, si tuviésemos la información completa del estado inicial podríamos
determinar posición y momento a la vez.
Así
Einstein escribió: “La Luna tiene una posición definida la miremos o no la
miremos, lo mismo debe ser válido para objetos de tamaño atómico, ya que no
debe de haber distinción entre éstos y el mundo macroscópico. La observación no
puede crear un elemento de realidad como una posición...”
A
lo que Bohr le replicó: “Si Dios creó en el mundo un mecanismo perfecto, no
necesitamos resolver infinitas ecuaciones diferenciales para entenderlo, sino
que podemos usar los dados para explicarlo bien.”
La
tecnología actual frente a la del futuro: Top-down frente a Bottom-up
Buscando
un símil sencillo, el fundamento de la tecnología actual se asemeja al trabajo
realizado por un escultor, el cual a partir de un bloque de material, y a base
de cincelar, pulir y modelar, acaba obteniendo un objeto más pequeño con la
forma deseada.
El
trabajo con objetos tan pequeños entraña una gran dificultad, y de hecho fue
algo prácticamente imposible hasta que se desarrollaron los microscopios de
campo cercano (SPMs). Estas novedosas herramientas permiten no sólo la
visualización, sino también la manipulación de objetos de dimensiones
nanométricas de muy distinta naturaleza (ver capítulo 2). Estos microscopios
son tan potentes que con ellos es posible llegar a ver átomos sobre una
superficie y moverlos a nuestro antojo.
La
necesidad de esta compleja instrumentación implica otra de las características
fundamentales que acompañan a la nanociencia y nanotecnología: su
interdisciplinariedad. Pero no sólo es la necesidad de combinar expertos en
distintas técnicas y áreas del conocimiento lo que origina la interdisciplinaridad
de la nanociencia.
Se
trata también de que al reducir el tamaño de los objetos para estudiarlos,
llega un momento en que todos están constituidos por átomos y moléculas. Y así,
por ejemplo, para construir un dispositivo biosensor, el biólogo deberá saber
de física cuántica, y el físico de biología si quieren que ese nuevo
dispositivo funcione.
Así
pues, el desarrollo de esta nueva ciencia requiere no sólo la utilización de
técnicas de fabricación, visualización y caracterización muy precisas, sino
también una aproximación multidisciplinar que reúna a físicos, químicos,
biólogos, tecnólogos y teóricos trabajando juntos y utilizando elmismo
lenguaje.
De hecho, para todos ellos los átomos y
moléculas son los ladrillos constituyentes de los objetos que estudian. La
nanoescala es su punto de encuentro. En una primera impresión, pensar que
podemos ser capaces de desarrollar toda la tecnología que nos rodea ensamblando
molécula a molécula, partícula a partícula.
Por
ejemplo, los aminoácidos, que son moléculas relativamente simples, se fueron
agrupando entre sí de manera precisa hasta construir las proteínas. Por tanto,
otro de los objetivos de la nanociencia y la nanotecnología es aprender de los
mecanismos fundamentales que la vida ha desarrollado durante su evolución para
intentar reproducirlos e incluso adaptarlos para la resolución de otros
problemas que poco tienen que ver, en principio, con la biología.
EEE
1.7 ¿Qué es un interruptor?
En
aquel momento su discurso no tuvo una gran repercusión. De hecho la palabra
nanotecnología no aparece en dicho discurso. En realidad el término
“nanotecnología” fue acuñado en 1974 por el profesor N. Taniguchi de la
Universidad de Ciencia de Tokio en un artículo titulado "On the Basic
Concept of ‘Nanotechnology’", que se presentó en una conferencia de la
Sociedad Japonesa de Ingeniería de Precisión.
En
dicho artículo se hablaba de la nanotecnología como la tecnología que nos
permitirá separar, consolidar y deformar materiales átomo a átomo o molécula a molécula.
El discurso de Feynman “There is plenty of room at the
bottom”
Richard
Feynman nació en Nueva York en el año 1918. En 1939 se licenció en el Instituto
de Tecnología de Massachusetts (MIT), obteniendo posteriormente un doctorado
por la Universidad de Princeton.
En
estos años de juventud es invitado a participar en el proyecto Manhattan que
concluyó con la construcción de la primera bomba atómica.
La mayor parte de su carrera científica la
desarrolló en el Instituto de Tecnología de California en Pasadena, California
(conocido internacionalmente como Caltech), donde trabajó en muy diversos
temas, destacando los relacionados con la electrodinámica cuántica por los que
fue galardonado con el Premio Nobel de Física en 1965. "Por su trabajo fundamental
en electrodinámica cuántica, con sus profundas consecuencias para la física de
las partículas elementales" (compartido con Julian Schwinger y Shin-Ichiro
Tomonaga).
Además
de su trabajo como científico fue un importante divulgador a través de libros (“¿Está
Vd. de broma, Sr. Feynman?” ó “¿Qué te importa lo que otras personas piensen?”)
y lecciones dedicadas a sus estudiantes (“Conferencias de Física de Feynman”).
Precisamente fue un grupo de ellos quien quizá le dedicó el homenaje más
sincero, al escalar la pared de la biblioteca de la Universidad y colgar un
cartel con las palabras: “We love you, Dick!” poco después de su muerte en
1988.
En
el año 1959, varios años antes de recibir el Premio Nobel, Richard Feynman
pronunció en el Instituto de Tecnología de California en Pasadena una
conferencia con el sugerente título “Hay mucho espacio al fondo” (”There is
plenty of room at the bottom”) donde puso los pilares de lo que más tarde se
conocería como nanotecnología.
En
esta ya mítica conferencia, Feynman trató sobre cómo manipular, controlar y
fabricar objetos de muy pequeñas dimensiones, abordando el problema desde una
perspectiva absolutamente distinta a como se había hecho hasta el momento y
abriendo todo un nuevo mundo de posibilidades.
Lo
que en aquel momento pareció sólo un sueño surgido de la mente de un
científico, el paso del tiempo ha demostrado que era posible convertirlo en una
realidad.“Me gustaría describir un campo”, comenzaba Feynman en su discurso,
“en el cual muy poco ha sido hecho hasta el momento, pero en el que, en
principio, una gran cantidad de cosas pueden hacerse.
Más aún, lo más importante es que podría tener
un gran número de aplicaciones técnicas. De lo que quiero hablar es del
problema de manipular y controlar objetos a muy pequeña escala”.
Los
orígenes de la nanotecnología se remontan, pues, a hace aproximadamente medio
siglo, y ya al comienzo de su conferencia, Feynman se hacía la siguiente
reflexión: “En el año 2000, cuando se mire hacia atrás, todo el mundo se
preguntará por qué hasta el año 1960 nadie empezó a moverse seriamente en esta
dirección”. Esa dirección de la que hablaba Feynman se refería a la posibilidad
de crear tecnología desde una nueva perspectiva basada en la manipulación y el
control de objetos tan pequeños como los propios átomos.
“No
me asusta considerar la pregunta final de si, próximamente, en el futuro,
podremos colocar los átomos como queramos: ¡los verdaderos átomos, aquellos que
están al fondo! Y ¿cuáles serían las propiedades de los materiales si
pudiéramos verdaderamente colocarlos como quisiéramos?
No
puedo saber exactamente qué pasaría, pero no tengo la menor duda de que si
controlásemos la colocación de objetos a una pequeña escala, tendríamos acceso
a un amplio rango de propiedades que los materiales pueden presentar y
podríamos hacer una gran cantidad de cosas”.
Esta idea que, en principio, podría parecer
ciencia-ficción, venía avalada por el hecho de que, según Feynman, esta
manipulación de los átomos no contradecía ninguna ley física, y por tanto, no
había ningún motivo para que no pudiese llevarse a cabo. “Los principios de la
física, tal y como yo los veo, no niegan la posibilidad de manipular las cosas
átomo por átomo.
Al
no violar ninguna ley, no hay motivo para que no pueda hacerse, y si en la
práctica no se ha llevado a cabo todavía es porque somos demasiado grandes”,
dijo Feynman.
“En el mundo de lo muy, muy pequeño, muchas
cosas nuevas podrán suceder, porque los átomos se comportan de manera distinta
a como lo hacen los objetos a mayor escala, pues deben satisfacer las leyes de
la mecánica cuántica. Si nos reducimos y comenzamos a juguetear con los átomos
allá abajo, estaremos sometidos a unas leyes diferentes, y podremos hacer cosas
diferentes.
A nivel atómico, aparecen nuevos tipos de
fuerzas, nuevas posibilidades, nuevos efectos”. Y todo esto, según Feynman,
abriría nuevas posibilidades, por ejemplo, en el campo de la síntesis de
moléculas por parte de los Nanociencia y Nanotecnología.
“Resulta interesante que, en principio, es posible (a mi entender) que
un físico sintetizase cualquier molécula que un químico le dibujase. Se le dan
las órdenes y el físico sintetiza la molécula.
Pero ¿cómo? Colocando los átomos allí donde el
químico le ha indicado previamente. Y así creamos la sustancia. Si
desarrollamos la capacidad de ver lo que estamos haciendo y de realizar cosas a
nivel atómico, ayudaremos a resolver muchos problemas planteados por la química
y la biología”. Aparece aquí, por tanto, una de las ideas básicas de la
nanotecnología y que consiste en un cambio de estrategia a la hora de fabricar
estructuras: el paso de una tradición top-down a un futuro bottom-up.
Fue
en 1981 cuando dos investigadores, G. Binning y H. Rohrer, mientras trabajaban
en los laboratorios de IBM en Zürich, inventaron el microscopio de efecto
túnel. Estos investigadores ganaron el Premio Nobel en 1986, abriendo un mundo
nuevo: la posibilidad de ver y manipular átomos y moléculas y permitiendo, por
tanto, que muchas de las ideas de Feynman pudiesen ponerse en práctica.
Otra idea básica que aparece siempre que se
habla de nanotecnología, también mencionada por Feynman a lo largo de su
discurso, es la necesidad de tomar la Naturaleza como modelo para fabricar
objetos que funcionen de manera parecida: “Un sistema biológico puede llegar a
ser extremadamente pequeño. La mayor parte de las células son diminutas, pero a
la vez muy activas: producen numerosas sustancias, se mueven, se contonean,
realizan todo tipo de cosas maravillosas y todo en una escala muy pequeña.
También
son capaces de almacenar información. Consideremos la posibilidad de que
nosotros también pudiésemos construir un objeto extremadamente pequeño capaz de
realizar las funciones que nosotros deseemos
Por
último, y con un cierto toque de humor, al finalizar el discurso, Feynman se
pregunta: ¿Quién debe llevar a cabo las ideas propuestas y por qué debería
hacerse? Y puesto que su respuesta es que debería ser (aparte de por motivos
económicos) por pura diversión, acaba proponiendo un pequeño concurso entre
universidades para ver quien puede reducir más el tamaño de, por ejemplo, las
letras escritas en un objeto.
*La
transcripción completa del discurso de Feynman la podemos encontrar en la
siguiente dirección: http://www.zyvex.co/nanotech/feynman.html.
Aunque
Feynman, en 1959, fue el primero en sugerir de manera clara esta posibilidad,
hubo que esperar hasta 1986 para que sus ideas se concretaran. En ese año, E.
Drexler publicó su libro “Engines of Creation” en el que describe cómo las
nanomáquinas serán capaces de construir desde ordenadores hasta maquinaria
pesada, ensamblando molécula a molécula, ladrillo a ladrillo.
¿Cómo
llegar a ser nanotecnólog@?
Apasionante
carrera científica
La
nanotecnología es una disciplina interdisciplinar porque en ella convergen
conocimientos de la química, la física, la biología, la ciencia de materiales y
las ingenierías. Esta diversidad dificulta que se puedan adquirir tan variados
conocimientos con una única licenciatura, por lo que no existe, como tal, la
carrera universitaria de “nanotecnología”.
En
realidad se puede llegar a trabajar en nanociencia y nanotecnología tras haber
cursado estudios de química, física, biología o ingeniería, por lo que hay
muchos caminos por los que llegar a ser nanotecnólog@. Tras cursar una
licenciatura (o “grado”, como se denomina en los nuevos planes de estudio)
científico-técnica se debe proseguir con estudios de maestría (master) y
doctorado que orienten (“ensanchen”) la formación adquirida hacia la
nanotecnología.
En
la actualidad, varias universidades españolas ofrecen interesantes programas de
maestría y doctorado directamente relacionados con las nanociencias y
nanotecnologías, algunos de ellos con títulos tan sugerentes como
“nanociencia”, “nanociencia y nanotecnología”, “física de la materia condensada
y nanotecnología”, “materiales avanzados y nanotecnologías”, “nanociencia y
nanotecnología molecular”, “ingeniería micro y nanoelectrónica”, etcétera.
En
muchos casos, estos programas se desarrollan de forma coordinada entre varias
universidades españolas, por lo que es fácil acceder a los mismos estudios en
diferentes comunidades autónomas. El doctorado es un plan de estudios muy
especial, ya que se cursa a la vez que el estudiante comienza a dar sus
primeros pasos en el fascinante mundo de la investigación.
En
realidad, el estudiante se convierte así en un investigador en formación. Dicha
etapa suele culminar a los 27-28 años. No cabe duda alguna: los doctores son
personas que poseen muchísima formación...
¡Más
de 23 años adquiriendo conocimientos desde que se pone el pie por primera vez
en una escuela de Educación Infantil! Tras el doctorado, el joven investigador
suele adquirir conocimientos adicionales en estancias posdoctorales en centros
de investigación extranjeros.
Cuando
este largo proceso termina, el investigador puede ser contratado en organismos
públicos de investigación, universidades, centros tecnológicos, fundaciones o
empresas (dentro o fuera de España).
El
día a día de un nanotecnólogo es similar al de los demás científicos: generar
nuevos conocimientos (en el laboratorio o frente a su ordenador) y trasmitirlos
a las siguientes generaciones de estudiantes, dirigir las tesis doctorales de
futuros científicos, presentar proyectos con ideas novedosas e intentar
conseguir fondos para llevarlos a cabo, publicar artículos para comunicar los
nuevos hallazgos, recopilar conocimientos en libros especializados, solicitar
patentes que permitan traducir estos conocimientos en productos y servicios,
mostrar y debatir con otros colegas los resultados obtenidos en seminarios y
conferencias a lo largo y ancho de todo el mundo, visitar otros laboratorios o
grandes instalaciones (como telescopios, aceleradores de partículas,
sincrotrones, buques oceanográficos, o bases polares), colaborar con otros
grupos de investigación en universidades y empresas, transmitir el conocimiento
a la sociedad mediante actividades de divulgación; organizar conferencias y
talleres de trabajo, dirigir revistas científicas, asesorar a gobiernos o
empresas, dirigir centros de investigación, etcétera.
¿Quién
pensaba que el trabajo de investigador es aburrido? Hay que destacar, además,
que la actividad científica es un magnífico punto de encuentro entre los
países, las culturas y las personas. El trabajo de investigador es muy exigente
ya que requiere una formación continua, así como grandes dosis de creatividad e
inspiración, muy similares a las de un artista. Este esfuerzo es recompensado
con algo muy importante: intensas emociones, satisfacción intelectual y la
esperanza de contribuir a mejorar las condiciones de vida de las generaciones
futuras.
¿Dónde
se puede trabajar como nanotecnólog@?
La
mayor parte de l@s nanotecnolog@s trabajará en universidades o en organismos y
agencias públicas de investigación, en centros específicamente dedicados a la
nanotecnología.
Dado que la nanotecnología es
interdisciplinar, estos centros deben poseer características muy particulares,
con instalaciones muy variadas, desde “salas blancas” donde fabricar
dispositivos nanoelectrónicos hasta laboratorios de biotecnología donde se
diseñan biosensores y se prueban nuevos fármacos.
En
los países más avanzados del mundo se ha iniciado la construcción de centros
dedicados a la investigación en nanotecnología, y España no ha sido una
excepción. En la actualidad existen varios centros dedicados a nanociencia y
nanotecnología (algunos en fase de construcción o de diseño) ubicados en
diversas comunidades autónomas (ver figura).
En algunos casos, las instalaciones necesarias
son tan costosas que necesitan la cooperación entre varios países, como ocurre
en el caso del Laboratorio Internacional Ibérico de Nanotecnología que se
ubicará en Braga (Portugal), proyecto conjunto entre Portugal y España, y cuya
primera piedra ha sido colocada por los presidentes de ambos países en enero de
2008.
Nano-herramientas:
el arte de ver, tocar, mover y escribir
2
Cada
una de estos “donuts” es un molécula de porfirina. Esta imagen fue obtenida con
un microscopio de efecto túnel (STM) operando en ultra alto vacío. 25 siglos después
de que Demócrito hablase de los átomos, se han construido microscopios que nos
permiten verlos, manipularlos y construir tecnología con ellos. Imagen cortesía
de Celia Rogero, Centro de Astrobiología.
“Los
átomos sí se pueden mover. Los de IBM escribieron las siglas de su compañía
moviendo átomos de oro. También se han escrito mensajes de paz”.
En
los años 80, muchos científicos pensaban que las posibles aplicaciones
derivadas de la visión de Feynman o los motores moleculares imaginados por
Drexler eran irrealizables por falta de herramientas capaces de manipular la
materia a escala nanométrica.
Sin
embargo, la aparición de una serie de técnicas permitió dar forma a esas ideas,
descubriéndonos un nuevo mundo lleno de posibilidades: el nanomundo.
Imaginémonos
sentados en la Luna con un telescopio que apunta a la Tierra. Imaginemos que
queremos ver con este telescopio los tornillos de la Torre Eiffel en la
pantalla de un ordenador.
La
amplificación necesaria para lograr este objetivo es la misma que
necesitaríamos si quisiésemos ver los átomos de un material. En este capítulo
veremos cómo, gracias a la física cuántica, podemos no sólo ver los tornillos
de la torre Eiffel desde la Luna, sino también apretarlos o aflojarlos. En
definitiva, actuar sobre ellos.
Microscopios
para ver
A
lo largo de la historia de la Humanida de siempre hemos intentado desarrollar
instrumentos que nos permitiesen observar objetos cada vez más pequeños. Así,
por ejemplo, la invención del primer microscopio de óptica compuesta,
desarrollado por Hans y Zacarias Janssen en Holanda a finales del siglo XVI,
supuso no sólo un gran avance para la ciencia, sino también una enorme
satisfacción para la curiosidad humana.
El
concepto más común que cualquiera de nosotros tiene de un microscopio es el de
un instrumento compuesto por una serie de lentes y basado en la utilización de
la luz, que nos permite obtener imágenes aumentadas de objetos que, debido a su
pequeño tamaño, habría sido imposible observar a simple vista.
De
hecho, el vocablo “microscopio” proviene de dos voces griegas: micro, pequeño y
skopein, ver, examinar. Ahora bien, la pregunta fundamental al hablar de este
tipo de dispositivos es siempre la misma: ¿cuál es el objeto más pequeño que es
posible observar con ellos? La respuesta a esta pregunta ha sido diferente a lo
largo de los últimos cuatro siglos. A medida que disminuía el tamaño de los
objetos que se podían observar, se tenía acceso a un nuevo mundo ¿somos capaces
de ver una célula?, ¿o quizá una molécula?, ¿o incluso un átomo? La resolución
de los microscopios ópticos está limitada por la longitud de onda de la luz
utilizada y por las aberraciones ópticas (defectos en las lentes).
Suponiendo
que existieran lentes perfectas, libres de defectos, las leyes de la óptica nos
dicen que para poder distinguir (“resolver”) dos puntos, éstos deben de estar
separados por una distancia mínima igual a la mitad de la longitud de onda que
utilizamos para iluminar la muestra.
Teniendo en cuenta las aberraciones en las lentes,
la resolución típica que se puede obtener es del orden de 0.5 μm,
o 500 nm. Por tanto, a pesar del enorme avance que supuso la invención del
microscopio óptico, fundamentalmente en el área de biología como veremos en el
capítulo 5, aún tuvieron que pasar varios siglos antes de que se empezara a
soñar con tener la instrumentación necesaria para poder “ver” moléculas y
átomos.
El
siguiente gran paso en la evolución de la microscopía tuvo lugar en el siglo XX
y se basó en la sustitución de la luz visible para iluminar los objetos en
estudio por un haz de electrones. Ya hemos visto en el capítulo anterior que
las partículas manifiestan también una naturaleza ondulatoria.
Si
la longitud de onda asociada a dichas partículas es muy pequeña, podemos pensar
en usarlas para “ver” objetos de aproximadamente el tamaño de dicha longitud de
onda. Los electrones pueden tener longitudes de onda pequeñísimas y son buenos
candidatos para ser usados como sonda en un microscopio.
Los
primeros microscopios que utilizaron electrones como sonda se denominaron por
ello microscopios electrónicos. Este tipo de microscopios comenzaron a ser
desarrollados por E. Ruska y M. Knoll a principios de la década de 1930 y
supusieron un gran avance para la ciencia y la tecnología.
Al
ser la longitud de onda de los electrones mucho menor que la de la luz visible,
con estos microscopios se pueden observar fácilmente objetos del orden de pocos
nm, es decir, es posible obtener imágenes de estructuras unas 100 veces más
pequeñas que las observables con un microscopio óptico.
Dentro
de la familia de los microscopios electrónicos, existen dos tipos
fundamentales: el microscopio electrónico de transmisión (Transmision Electron
Microscopy, TEM) y el microscopio electrónico de barrido (Scanning Electron
Microscopy, SEM). En ambos instrumentos la sonda es un haz de electrones
dirigido y focalizado sobre la muestra por una serie de “lentes” que en este
caso no son fragmentos de vidrio pulidos, sino campos electromagnéticos. La
instrumentación necesaria en este tipo de equipos es compleja debido
fundamentalmente a dos motivos.
Por
un lado, los electrones deben ser acelerados mediante altos voltajes,
requiriendo potentes fuentes de alimentación. Por otro, para evitar que en su
camino hacia la muestra sean desviados por las moléculas del aire, es necesario
que el sistema se encuentre a muy baja presión. Esto implica el uso de bombas
de vacío, complicando en gran medida el manejo experimental. En cuanto al tipo de
muestras que se pueden visualizar existen dos limitaciones fundamentales: la
necesidad de que el objeto que se estudia sea metálico (en caso de no ser así,
es posible proceder a su previa metalización) y el hecho de que deba resistir
la radiación del haz de electrones sin deteriorarse.
La
microscopia electrónica ha contribuido de forma decisiva al desarrollo de la
física, la biología y la ciencia de materiales a lo largo del siglo XX. Se
puede decir que no existe centro de investigación avanzado que no posea esta
poderosa herramienta. E. Ruska recibió en 1986 el Premio Nobel de Física,
compartido con los investigadores H. Rohrer y G. Binning, de los que vamos a
hablar a continuación en este capítulo.
Microscopios
de campo cercano: no sólo los ojos, sino también las manos
Con
la aparición de los llamados microscopios de campo cercano (del inglés Scanning
Probe Microscopy, SPM), se demostró que el sueño de Feynman ( ver capítulo 1)
era posible.
Se
acababa de inventar justo lo que la nanotecnología necesitaba para despegar:
una nueva herramienta capaz no sólo de ‘ver’ la materia a escala nanométrica,
sino también de interaccionar con ella. Dicho con otras palabras, la invención
de este nuevo tipo de microscopios acababa de dotar a la nanotecnología no sólo
de “ojos”, sino también de unas útiles “manos”.
Los
microscopios de campo cercano constituyen una familia de instrumentos que
permiten estudiar las propiedades de la superficie de diversos materiales en
una escala comprendida entre la micra (1000 nm) y las distancias atómicas (0.1
nm). A pesar de su elevado poder resolutivo, estos microscopios son
extremadamente pequeños.
En
este tipo de microscopios la sonda consiste en una punta afiladísima, con un
radio final de unos pocos nanómetros. Al aproximar la sonda a la superficie de
la muestra es posible poner de manifiesto diversos tipos de interacciones de
naturaleza cuántica, que surgen como consecuencia de la enorme proximidad a la
que se encuentran ambos materiales.
Dado
que la magnitud de la interacción está directamente relacionada con la
distancia punta-muestra, es posible generar un mapa de la topografía de la
superficie al ir moviendo la sonda sobre la muestra de una manera precisa y
controlada.
Cada
vez que debajo de la punta se encuentre una “protuberancia” (un átomo, una
molécula) o una “depresión” (un agujero presente en la superficie) se originará
un cambio en la distancia punta-muestra, y por tanto una variación de la
magnitud de la interacción cuántica.
Para corregir esta variación en la distancia
puntamuestra, se desplaza la punta en la proporción adecuada para que la altura
sea constante. Este desplazamiento se consigue gracias a unos sistemas de
posicionamiento muy precisos denominados piezoeléctricos.
Los
materiales piezoeléctricos poseen, entre otras, la propiedad de deformarse
cuando se les aplica una diferencia de potencial. Mediante la adecuada
combinación de potenciales a una barrita de material piezoeléctrico podemos
hacer que ésta se deforme y pueda mover algún objeto que lleve pegado en su
extremo (¡como la punta del SPM!). Los piezoeléctricos son los elementos clave
que nos permiten acercarnos y movernos por las superficies con grandísima
precisión.
De
la familia de microscopios de campo cercano, el Microscopio de Efecto Túnel
(Scanning Tunneling Microscopy, STM), inventado en 1981 por dos científicos de
la compañía IBM llamados G. Binning y H. Rohrer, fue el primero en ser usado
para visualizar superficies a nivel atómico.
En
este tipo de microscopio, la señal que recoge la punta o sonda está relacionada
con una propiedad cuántica de la materia: el llamado efecto túnel. Este efecto
se manifiesta como una pequeña corriente eléctrica
La
“magia” de la física cuántica para construir microscopios
La
teoría cuántica nos describe la naturaleza a escala atómica de una manera un
tanto incomprensible para nuestra lógica cotidiana. En nuestro mundo las cosas
están o no están, son o no son. Y esta es la única cuestión.
Sin
embargo, en el mundo atómico el mismo objeto puede ser o no ser, estar o no
estar, dependiendo de cómo lo observes. Y además, cuando lo observas puedes ser
tú el causante de lo que estás viendo.
Esta
idea, que queda recogida en el principio de dualidad onda-corpúsculo, implica
que, por ejemplo, un electrón puede ser tanto un corpúsculo o partícula (idea
que nos parece evidente) como una onda (cosa ya un poco más difícil de aceptar
intuitivamente).
Pongamos
el siguiente ejemplo: unos chicos de mi pueblo juegan al frontón en la pared de
la iglesia. Si tiran alto, la pelota se les va al tejado, y si no, rebota en la
pared.
Este
efecto cuántico se describió teóricamente en 1936 y viene a decir que una
partícula con una determinada energía tiene una probabilidad no nula de
atravesar una barrera de potencial cuya altura sea superior a la energía de la
partícula.
Esta probabilidad se puede calcular
matemáticamente, conociendo la anchura y altura de la barrera y la energía y
masa de la partícula. En este punto, la pregunta que a todos nos viene a la
cabeza es la siguiente: ¿Cómo a partir de una formulación tan abstracta se
puede construir un microscopio?
Imaginemos
ahora una punta metálica cuyo extremo está situado muy cerca de la superficie de
un material. Esta punta, si la miramos a nivel atómico, normalmente tendrá un
átomo más cercano que los demás a la superficie. Hagamos el siguiente
experimento: pongamos un pequeño voltaje entre ambas y veamos la corriente que
circula. Si la punta no toca la muestra la corriente es cero.
Es
un circuito abierto. Sin embargo, si la punta toca la superficie se establecerá
una corriente eléctrica, cuyo valor vendrá fijado por la famosa ley de Ohm.
Hasta aquí nos encontramos realizando un experimento de tecnología básico.
Supongamos ahora que nos situamos a una distancia tal que la punta está cerca
de la muestra pero no la toca, digamos a 0.4 nm.
En
principio, la ley de Ohm nos dirá que el circuito está abierto y por tanto no
debería circular ninguna corriente eléctrica entre ambas. Pero claro, la ley de
Ohm no tiene en cuenta la naturaleza cuántica de la materia:
para
esta ley la corriente o bien pasa o no pasa. En realidad sí que circulará una
corriente. La llamada corriente túnel que tiene su origen en todos los
electrones que pasan de la punta a la superficie mediante el efecto túnel que
acabamos de explicar. Volviendo al símil del frontón, la separación entre la
punta y la muestra es la anchura de la barrera, el grosor del muro, y la pelota
es un electrón.
Si
aplicamos la fórmula de la probabilidad de paso por la barrera veremos que
puede circular una pequeñísima corriente, la llamada corriente túnel cuyo valor depende
exponencialmente de la separación entre la punta y la superficie. Dicha
corriente, captada por una punta afiladísima, situada a décimas de nanómetros
de la muestra, proviene de un solo átomo de la superficie.
Esta
corriente túnel es la que se usa como “altímetro” para pasearse por la
superficie y generar de este modo una imagen en un STM. Así, al ir moviendo la
punta sobre la muestra es posible medir la corriente eléctrica sobre cada punto
de la superficie y, por tanto, generar un mapa que se puede correlacionar
fácilmente con los átomos en superficie de esa muestra.
El
AFM funciona de modo similar, pero lo que mide es la fuerza atómica entre una
punta que está en el extremo de una micro-palanca y la superficie. Si la punta
está cerca, estas fuerzas son repulsivas y tienen su origen en la repulsión
entre las nubes electrónicas entre los átomos de la superficie y la punta,
dependiendo enormemente de la distancia.
Si
utilizamos de nuevo esa fuerza como altímetro tendremos de nuevo una
descripción de la superficie a nivel atómico. La forma de medir la magnitud de
las fuerzas con un AFM es extraordinariamente sencilla. Imaginemos una palanca
muy pequeña, similar a un micro-trampolín, que posee un extremo sujeto a una
estructura y el otro libre de forma que este último puede oscilar.
Dicha
palanca está recubierta de metal por su parte superior para que pueda reflejar
la luz. En la parte inferior del extremo libre de la palanca se ubica una
pequeña punta que se usa como sonda. Si la punta es atraída por la superficie
que está debajo de ella, el trampolín se comba hacia abajo.
Si
la punta es repelida se comba hacia arriba. Si mientras todo esto ocurre
hacemos incidir un rayo láser sobre la parte superior del extremo del trampolín
veremos que el haz reflejado en la superficie de la palanca se mueve hacia un
lado o hacia otro según las fuerzas sean atractivas o repulsivas. Esta
deflexión de la micropalanca es fácil de medir mediante fotodiodos.
Si
conseguimos que la altura de vuelo sobre la superficie (separación
punta-muestra) sea constante, la fuerza es constante y por tanto hemos dibujado
un perfil de la superficie. Estos procesos, aunque puedan parecer complejos,
hacen que este tipo de microscopios sean pequeños, manejables y potentes
comparados con los microscopios electrónicos. ojos.
La
importancia del STM fue tal que Binning y Rohrer fueron galardonados con el
premio Nobel en 1986. Desde su invención hasta hoy día, está técnica no ha
dejado de evolucionar, llegando a convertirse en una herramienta imprescindible
en el mundo de la microscopía.
La
enorme mejora experimentada por el STM en el curso de muy pocos años queda
reflejada claramente en la figura 2.6 donde se pueden comparar tres imágenes de
una misma superficie obtenidas en 1988, 1992 y 2007.
A
pesar de que la aparición del STM supuso una revolución en el mundo de la
microscopía debido a su enorme aplicabilidad, presenta una limitación
fundamental en lo referente al tipo de muestras que permite estudiar.
Puesto
que la propiedad cuántica en que se basa la medida es la aparición de una
corriente eléctrica (“la corriente túnel”) entre la punta y la muestra, es
necesario que ambas sean conductoras de la electricidad.
Hay, por tanto, una enorme cantidad de
muestras aislantes o poco conductoras (por ejemplo, las biológicas) que no
podrán ser visualizadas por medio de esta técnica. Este problema quedó resuelto
en 1989, año en el que G. Binning desarrolló la herramienta idónea para el
estudio de materiales no conductores: el Microscopio de Fuerzas Atómicas (Atomic Force Microscope,
AFM).
La
base de funcionamiento de este microscopio es la utilización como magnitud de
interacción de las fuerzas que aparecen al acercarse la sonda (una punta cuya
terminación tiene aproximadamente 20 nm de diámetro) a la muestra objeto de
estudio. A grandes distancias no se establece ninguna fuerza entre la sonda y
la muestra.
Al
ir acercándose la punta y la muestra, se originan unas pequeñas fuerzas
atractivas, que según se vaya acortando la distancia se transformarán en
importantes fuerzas repulsivas. Por tanto, la magnitud de la fuerza que se
establece entre punta y muestra depende fuertemente de la distancia.
Puesto
que la aparición de estas fuerzas ocurre por el mero hecho de la cercanía entre
las nubes electrónicas de los dos materiales involucrados (la punta y la
muestra), el AFM es una técnica que puede aplicarse al estudio de una gran
diversidad de muestras, siendo absolutamente independiente de si éstas son
conductoras de la electricidad o no.
El
problema principal que presenta el uso de las diferentes microscopías de campo
cercano reside en la punta, es decir, en la sonda que “se pasea” sobre la
superficie recogiendo la señal. La resolución del microscopio depende del
tamaño de la punta, y por tanto sólo podremos llegar a ver átomos cuando la
punta acabe en un solo átomo. La resolución más extrema, necesaria para “ver”
átomos, se obtiene utilizando sistemas de vacío, en los que se pueden preparar
superficies limpias y ordenadas a nivel atómico.
Al
ver una de estas máquinas de ultra alto vacío, en el interior de la cual la
presión es del orden 10-10 mbars, es decir, diez billones de veces inferior a
la presión atmosférica y similar a la que se encuentra en el espacio
interplanetario. Sólo en estas condiciones es posible ver átomos con precisión
y estudiarlos.
El
hecho de introducir el microscopio dentro de estas máquinas complica la
instrumentación, a ella se añaden varios problemas fundamentales. El primero
son las vibraciones mecánicas.
Ver
un átomo significa que la punta debe posicionarse sobre la muestra con un
precisión superior a 0.01 nm. El suelo sobre el que pisamos ahora mismo está
vibrando, debido a los coches que pasan cerca, a los motores de los equipos de
aire acondicionado, los ascensores o simplemente a los movimientos de la propia
estructura del edificio.
Así,
para poner en marcha un experimento de estas características, es necesario
disponer de sistemas antivibratorios muy potentes.
Otro
problema importante proviene de que, al ser imprescindible que la punta del STM
acabe en un solo átomo y sea estable, es necesario afilarla, limpiarla o
incluso cambiarla varias veces y todo ello durante una misma sesión de medida.
Por último, otra limitación es la estabilidad de la propia muestra en estudio,
pues los átomos que la forman se mueven a temperatura ambiente debido a la
agitación térmica.
Esto
es especialmente importante cuando queremos situarnos encima de un átomo
preciso, por ejemplo para manipularlo. En el caso de que no nos haga falta “ver
átomos”, sino que lo que queramos visualizar sean moléculas u otros objetos
nanométricos de mayor tamaño, no necesitamos imponer unas condiciones tan
drásticas (sistema de vacío o punta acabada en un solo átomo) y la manipulación
experimental resulta mucho más sencilla. Este es el caso del AFM.
A
modo de resumen podemos, por tanto, decir que la aparición de estos dos tipos
de microscopios de campo cercano (STM y AFM) ha supuesto una revolución en el
mundo de la microscopía debido a su alta resolución y a que producen verdaderas
imágenes tridimensionales (3D) de los objetos estudiados.
Si
a esto añadimos que son técnicas no destructivas y que operan en diversos
ambientes (en vacío, al aire o en líquidos) es fácil comprender la gran
evolución que han experimentado estas técnicas desde su invención.
Hemos
descrito los dos principales microscopios pertenecientes a la familia SPM, pero
existen otros muchos tipos, como, por ejemplo, el Microscopio de Fuerzas
Magnéticas (MFM) o el Microscopio de Campo Cercano, denominado SNOM. EL MFM se
emplea para visualizar moléculas o regiones con propiedades magnéticas,
mientras que el SNOM permite observar luz proveniente de una sola molécula y
estudiar así sus propiedades ópticas.
Manipulación
de la materia mediante el uso de microscopios
Ya
en los años 90, un científico de IBM en EEUU comprobó que era posible escribir
con átomos. Este científico, D. Eigler, logró colocar átomos de xenón sobre una
superficie de níquel escribiendo con
ellos las letras del logo de su empresa (IBM), abriendo así las puertas al
mundo soñado por Feynman casi medio siglo antes. Para lograrlo, “pinchaba” los
átomos con la punta de un microscopio STM y se los llevaba de un sitio a otro.
En
realidad, los átomos quedaban unidos a la punta mediante atracción electrostática. Aplicando un
determinado voltaje a la punta conseguía que los átomos se le quedaran
adheridos a la misma, como un trocito de papel se queda pegado en un peine que
previamente hemos frotado contra la manga de un jersey.
Este
grupo de investigación ha seguido trabajando y creando estructuras atómicas y
moleculares, como puede verse en su página web:
consta
de únicamente 10 moléculas. para colocar estas 10 moléculas se necesitaron
aproximadamente tres horas. Si a esto le añadimos que la temperatura necesaria
para llevar a cabo el experimento es de 4K, es decir de -269 ºC, la dificultad
del proceso resulta evidente.
Escribir
con átomos mediante STM es un paso muy importante, pero difícil de utilizar
tecnológicamente. En este sentido, es el AFM quien ha tomado el relevo en la
manipulación de nanoestructuras puesto que se trata de una herramienta mucho más
versátil y, como ya hemos dicho, aunque se sacrifica la resolución atómica se
gana en facilidad de manejo.
Para escribir mediante el uso del AFM no vamos
a colocar átomos o moléculas secuencialmente, sino que vamos a recurrir a otros
mecanismos más sencillos. De entre todos los que pueden utilizarse actualmente, los basados en fenómenos
químicos de oxidación de ciertas zonas de la propia superficie sobre la
que se va a “escribir” son los más prometedores, como se puede comprobar en el
ejemplo siguiente.
Las diez primeras líneas de “El Quijote”, que
aparecen en la figura 2.11, se han escrito sobre una placa de silicio de
dimensiones 2 μm x 4 μm.
Para lograr “escribir” las letras que componen el texto (a tamaño nanométrico,
no lo olvidemos) se genera
un campo eléctrico entre el silicio y la punta del microscopio.
Así
se consigue que el vapor de agua ambiental se condense justo entre la
superficie y la punta dando lugar a un menisco de unos 10 nm de grosor que
actuará como un “bolígrafo”, pues al aplicar un segundo voltaje se consigue
oxidar el silicio en esa zona, originándose una marca de estas dimensiones. La
figura 2.12 ilustra este proceso.
Si
repetimos este proceso, mientras desplazamos la punta sobre la superficie de
silicio siguiendo una determinada trayectoria definida previamente, iremos
conformando las diferentes letras que constituyen el texto. Gracias al cambio
de estrategia respecto a lo que se hacía por STM, hemos conseguido evitar un
paso importante en el proceso de “escribir” con átomos.
Ya
no es necesario ir a cogerlos de otro sitio y posicionarlos sobre la superficie
(como vimos en el caso del emoticono formado por moléculas de CO), sino que
aprovechamos los propios átomos que forman parte del material, e induciendo un
cambio en algunos de ellos (por ejemplo, oxidándolos) logramos diferenciarlos
del resto y que se “vea” el motivo escrito.
Ahora
poseemos sofisticadas herramientas que permiten cada vez escribir con motivos
más pequeños. La punta de un SPM permite crear verdaderas litografías y no sólo
oxidando la superficie, sino también mediante otros mecanismos mecánicos como,
por ejemplo, empujando moléculas que se encuentran adsorbidas hasta tumbarlas
sobre una superficie o cortando cadenas de ADN.
Así,
la punta de un SPM cumple una doble función: es la responsable tanto de generar
las imágenes de la superficie como de interaccionar con las moléculas, ganando
tanto en eficacia como en precisión a la hora de manipular el objeto. Mediante
esta estrategia es posible utilizar los microscopios SPM y particularmente el
AFM para construir patrones sobre una superficie.
Recientemente,
se han publicado varios trabajos en los que se propone el uso de puntas
modificadas de AFM para depositar material sobre la superficie. Este tipo de
procesos se conocen con el nombre de dip-pen nanolitography y esencialmente
consisten en utilizar la punta de un microscopio como si de una pluma
estilográfica se tratase, para escribir con ella motivos moleculares.
El
material orgánico pasa de la punta a la muestra mediante procesos de difusión y
es guiado por la diferente afinidad química. Se pueden utilizar hasta decenas
de tintas (moléculas) diferentes sobre una misma superficie. Con esta técnica
es posible generar puntos moleculares de tamaño nanométrico, lo que supone un
fuerte avance en la capacidad de integración de circuitos electrónicos.
Otras
técnicas litográficas
La
más prometedora, debido a la gran cantidad de substratos que pueden utilizarse
y a que no necesita utilizar mascarillas o resinas, es la llamada abrasión
iónica (o FIB, del inglés: “Focused Ion Beam”). Con esta técnica se pueden
construir objetos muy diversos mediante la erosión controlada de una superficie
mediante haces nanométricos de iones, generalmente de galio.
Se
puede emplear también para depositar materiales con formas determinadas, unos
encima de otros, alcanzándose resoluciones de hasta unos 30 nm. Puesto que
estas técnicas trabajan con iones y electrones, necesitan equipos de vacío y
normalmente se acoplan a microscopios electrónicos tipo SEM, de manera que el
operario pueda ir viendo las estructuras a medida que las dibuja.
Por
otro lado, las técnicas de abrasión electrónica se basan en hacer incidir un
haz de electrones sobre una superficie y son las más utilizadas por las grandes
multinacionales microelectrónicas para fabricar los circuitos impresos
EEE
2.2 Sistemas nanoelectromecánicos (NEMS)
Los
sistemas “nanoelectromecánicos (NEMS, del término inglés “nanoelectromechanical
systems”) suponen un paso previo a los motores moleculares. Realmente podemos
definirlos como piezas o engranajes cuyo tamaño mínimo es de aproximadamente
100 nm.
Estos
dispositivos suelen fabricarse mediante técnicas de ataque químico, eléctrico o
fotónico sobre un apilamiento de diferentes materiales, como polímeros o
silicio. De especial relevancia son los llamados dispositivos micromecánicos,
ya que pueden ser integrados con las tecnologías actuales basadas en silicio.
A
la hora de diseñar estos dispositivos, el “nano-ingeniero” tiene que tener en
cuenta que para ciertos tamaños los efectos llamados “de superficie” empiezan a
ser importantes. Así, por ejemplo, la presión, la inercia térmica o el
potencial electrostático local son algunas de las magnitudes que no es posible
escalar directamente respecto a una pieza del mismo material con la misma forma
pero con dimensiones cercanas al centímetro
ALBA,
el sincrotrón español: una herramienta kilométrica para estudiar objetos
nanométricos
Todos
hemos observado alguna vez las ondas que avanzan sobre la superficie del agua
de un lago en el que hemos tirado una piedra. En realidad, el agua no avanza.
Tan sólo sube y baja,
oscila, en una secuencia de crestas y valles.
A
la luz le sucede algo parecido. No es más que una onda (o radiación)
electromagnética que se propaga a través del espacio. Es decir, una secuencia
periódica de presencia y ausencia de campo eléctrico y magnético.
Eso
sí, la luz se desplaza muy rápidamente, a 300.000 kilómetros por segundo. Toda
onda (la que se forma en el agua, el sonido o la luz) se caracteriza por una
longitud: la que separa dos valles o dos crestas consecutivas. Esta distancia
se conoce por el nombre de ‘longitud de onda’. Al igual que cuando un sonido se
hace demasiado agudo (20 KHz) o demasiado grave (20 Hz) dejamos de oírlo, el
ojo humano tan sólo es sensible a determinadas longitudes de onda de la luz.
Es
la parte del espectro electromagnético llamada “luz visible”, que se extiende
entre el ultravioleta y el infrarrojo (entre 400 y 750 nm). Cuando un prisma separa
la radiación visible a nuestros ojos en sus colores, en realidad separa toda la
radiación electromagnética según su energía. Así hablamos del espectro de
radiación electromagnética que abarca desde ondas de radio a rayos gamma, según
se aprecia en la figura.
De
la misma manera que la luz visible nos revela los colores y la forma de los
objetos que observamos, el resto de la radiación electromagnética puede usarse
para conocer diferentes propiedades de la materia.
Los
rayos X son especialmente útiles en el nanomundo, ya que tienen una longitud de
onda comparable a las distancias interatómicas, y penetran en la materia.
Químicos, biólogos, físicos, médicos, arqueólogos y hasta restauradores de arte
exponen muestras de los materiales que estudian a los rayos X para descifrar
así algunas de las propiedades de la materia que no se podrían conocer de otra
manera.
La aplicación más conocida es la radiografía,
en la que los rayos X se usan para formar imágenes de objetos que están
sepultados bajo otros materiales, como ocurre con nuestros huesos, que están
ocultos tras la materia blanda de nuestros tejidos. Se hace pasar un haz a
través del tejido a estudiar, y se detectan las diferencias en su absorción.
Los
tejidos blandos, formados en su mayor parte por agua, son transparentes a los
rayos X, proporcionando regiones brillantes. En cambio, los tejidos duros, más
ricos en elementos pesados, absorben más la radiación y por tanto dan lugar a
zonas oscuras, en las que la intensidad transmitida es menor.
Normalmente, las radiografías se muestran en
negativo para que se aprecien mejor los detalles. Así, los rayos X son muy
útiles, pero el problema para su uso viene del hecho de que producirlos no es
tarea fácil. Los aparatos usados en las consultas de dentistas y médicos, junto
con algunos otros instrumentos, producen rayos X de baja intensidad.
Aunque
esto es suficiente para una radiografía no lo es para muchas otras aplicaciones
en las que se necesita disponer de mayor intensidad. Para producir rayos X en
serio se necesita lo que se llama un sincrotrón. El sincrotrón puede
considerarse una fuente de luz enorme y sofisticada.
Enorme
porque requiere de un acelerador de electrones de casi un kilómetro de
circunferencia. Sofisticada porque a través de una compleja instrumentación
puede generar luz de cualquier longitud de onda dentro de un amplio rango,
desde el infrarrojo hasta los rayos gamma con alta intensidad. Aunque es así,
la mayoría de estas máquinas se centran en la producción de rayos X.
Éste
es el caso también de ALBA, el primer sincrotrón español actualmente en
construcción en Cerdanyola del Vallès, cerca de Barcelona. La diferencia con
los grandes aceleradores, como los del CERN (Organisation Européenne pour la
Recherche Nucléaire) en Ginebra, es que éstos hacen colisionar las partículas
para conocer su estructura interna, mientras que los sincrotrones intentan que
los electrones giren indefinidamente, o por lo menos, el mayor tiempo posible.
El
motivo es que las partículas cargadas, como los electrones, al describir
trayectorias circulares emiten radiación electromagnética, que puede ser
utilizada por científicos de muy diversas áreas para realizar experimentos.
Así, un sincrotrón es una gran instalación,
que consiste en un acelerador capaz de producir radiación electromagnética
(denominada luz de sincrotrón) de alta intensidad, con longitudes de onda que
comprenden desde la radiación infrarroja hasta los rayos gamma.
Para
ello, electrones son acelerados hasta velocidades cercanas a las de la luz en
un anillo circular de unos 800-1000 m de longitud, que se encuentra en ultra
alto vacío (presiones en el interior del orden de 10-10 mbar). Alrededor del
anillo en el que giran los electrones, se sitúan diferentes laboratorios
llamados “líneas de luz”.
Por
varias aperturas del anillo emerge la radiación sincrotrón que entra en cada
una de dichas líneas de luz. Cada línea posee un sofisticado equipamiento y
está especializada en una determinada técnica experimental aplicada a un área
del conocimiento. Pero ¿qué podemos hacer ahora con la radiación que
producimos?, ¿para qué sirve tener encerradas a unas 200 personas altamente
cualificadas trabajando para que los electrones no paren de girar? Para
responder a esta pregunta vamos a darnos un paseo imaginario por una de estas
instalaciones. En este paseo nos encontramos laboratorios de lo más variopinto.
Así, podríamos encontrarnos con científicos que utilizan los rayos X para tomar
“fotos” en intervalos de nanosegundos de lo que ocurre en una reacción química
para saber cómo funcionan los catalizadores de los coches y poder así
mejorarlos. Junto a este grupo de investigación podemos encontrar otros
científicos que estudian la materia en condiciones especiales, por ejemplo
dentro de una celda de diamante, donde un material puede someterse a presiones
muy altas (de millones de veces la presión atmosférica) similares a las que se
alcanzan en el centro de la Tierra. Esto les permite estudiar el estado de la
materia a 5500 ºC y 3.6 millones de bars para intentar conocer lo que sucede en
el centro de nuestro planeta sin tener que viajar a su interior. Julio Verne no
estaría muy contento... Junto a estos geólogos encontramos médicos que realizan
angiografías (radiografías de las arterias con elevada precisión y alta
resolución) de manera que logran localizar trombos y estudiar la evolución de
los mismos frente a distintos fármacos. También podemos encontrarnos con un
grupo de biólogos moleculares que buscan la posición en el espacio, las
coordenadas, de cada una de las moléculas que forman un pequeño virus o una
proteína: el primer paso hacia la elaboración de fármacos específicos.
Así
pues, el sincrotrón es una gran instalación que produce rayos X para apoyar a
toda la comunidad científica y tecnológica de distintas áreas del conocimiento,
y en particular, y cada vez más, a las derivadas de la nanociencia y la
nanotecnología.
En
ALBA, el primer sincrotrón que habrá en España y que estará operativo en el año
2011, ya se están construyendo las siete primeras líneas de luz, o
laboratorios, dedicadas a “ver y conocer” la materia a escala nanométrica.
Nano-materiales:
nuevos materiales para un nuevo siglo
3
“El Fullereno tiene unidos todos los átomos de
C entre sí formando una pelota”.
“Los materiales del futuro permitirán
construir robots cuyo motor será muy resistente y podrá funcionar a máxima potencia,
llegando a velocidades cercanas a la de la luz para poder recorrer el
universo”.
Disponer
de nuevos y mejores materiales ha sido siempre una necesidad de las sociedades
a lo largo de la historia de la Humanidad. El hombre de la Edad de Bronce fue
superado por el de la Edad de Hierro, y los romanos ganaron muchas batallas
gracias a la fortaleza de sus espadas. El acero permitió construcciones más
resistentes y seguras, así como construir nuevas máquinas que posibilitaron la
Revolución Industrial. Los aceros pesados se han sustituido por aluminio y
polímeros en los automóviles. Las fifibras sintéticas han remplazado a los
tejidos naturales en multitud de aplicaciones. Los plásticos mejoraron al
cartón; y así sucesivamente hasta hoy. Pero ¿cuáles serán los nuevos materiales
para este siglo que comienza?
En
1902 se construyó este edificio llamado Flatiron en Nueva York. Su altura de 80
m y forma tan atrevida fue posible gracias a que en su estructura interna se
sustituyó el hierro por el acero. ¿Y si sustituyésemos el acero por otro
material más ligero y más resistente?
En
un mundo de carbono
El
carbono es tal vez el átomo más importante en nuestro mundo. Aunque sólo
represente el 1% de toda la materia conocida del universo y únicamente el 0.3 %
de la corteza terrestre, es el componente principal de los seres vivos (20% en
masa). Toda la química que da lugar a la vida está basada en el carbono y se
conoce como química orgánica. Pero, ¿qué hace del carbono un elemento tan
especial? El átomo de carbono presenta unas propiedades únicas, siendo su
química mucho más extensa que la del resto de los elementos de la tabla
periódica.
Además
del enorme número de compuestos distintos que existen en la naturaleza
resultantes de su combinación mediante enlaces covalentes con unos pocos
elementos más, resulta curioso cómo un mismo átomo puede dar lugar a materiales
tan distintos. Basta pensar, por ejemplo, en las diferentes propiedades que
presentan un diamante, grafito (como el que forma la mina de un lápiz) o un trozo
de carbón amorfo. Tres materiales iguales en cuanto a composición, ya que todos
están formados exclusivamente por átomos de carbono, pero absolutamente
distintos en cuánto a su apariencia o características. ¡Y si no, probad a
regalar un trozo de carbón de quemar engarzado en un anillo como regalo de
cumpleaños! Para entender el por qué de todas estas particularidades, es
necesario comenzar considerando la configuración electrónica del átomo de
carbono.
Recordemos
que este elemento posee 6 electrones que, en principio, se distribuirían en los
diferentes orbitales atómicos (niveles de energía permitidos a los electrones
en su movimiento alrededor del núcleo) de la siguiente manera: 1s2 2s2 2p2.
Ahora bien, los cuatro orbitales del último nivel (los llamados orbitales de
valencia) no permanecen tal cual sino que pueden “mezclarse” entre ellos
formando unos nuevos orbitales llamados orbitales híbridos. Dependiendo de cómo
lo hagan, dan lugar a diferentes tipos de orbitales en los que se situarán los
cuatro electrones de valencia, que son los que participan en el enlace químico
para formar los diferentes compuestos.
Los tipos de hibridación posibles para el
carbono son los llamados sp3, sp2 o sp. En la tabla siguiente puede verse un
resumen de sus características. Por tanto, la clave en el caso que nos ocupa
reside en que, a pesar de que por ejemplo, diamante y grafito están
constituidos exclusivamente por el mismo elemento, la forma en que se disponen
sus átomos en el espacio es absolutamente distinta y está íntimamente ligada al
tipo de hibridación que se haya producido entre sus orbitales.
Así,
en el diamante los átomos de carbono presentan una hibridación sp3, es decir se
han originado cuatro orbitales híbridos que adoptan una disposición tetraédrica
en el espacio. Cada átomo de carbono se une a otros cuatro mediante un enlace
covalente dando lugar a la estructura tridimensional que tenemos representada
en la figura 3.3A. Y es justamente esta red tridimensional de enlaces
covalentes lo que determina la enorme dureza que presenta el diamante. De
hecho, el origen de la palabra diamante hay que buscarlo en un término griego ἀδάμας (adamas)
que significa “el invencible”.
Entre
otras propiedades que presenta el diamante, y que hace que no sólo sea
codiciado por su belleza sino también por sus importantes propiedades
tecnológicas, destacan su alto punto de fusión, su completa transparencia y el
no ser conductor sino un excelente aislante térmico y eléctrico. El carbono con
hibridación sp3 es también el más habitual en las moléculas biológicas de las
que hablaremos en el capítulo 5, en las que el C está combinado entre sí y
también con otros elementos como N, O, H, P y S.
Sin
embargo, cuando los átomos de carbono presentan hibridación sp2, los orbitales
híbridos se distribuyen en un plano formando ángulos de 120º (imaginemos la
estrella de los coches Mercedes o las aspas de un aerogenerador) y el orbital
de tipo p puro se dispone perpendicularmente a dicho plano. Este tipo de
hibridación es la que presentan los átomos de carbono que forman el grafito,
originándose un material formado por láminas paralelas entre sí.
En
el grafito cada átomo de carbono se enlaza muy fuertemente con otros tres
átomos de carbono formando una malla de aspecto hexagonal (como un panal de
abeja). Este tipo de materiales presenta la particularidad de que, aunque los
átomos que se encuentran en el mismo plano están muy fuertemente unidos entre
sí (enlace covalente entre híbridos sp2), las láminas se unen unas a otras
mediante fuerzas de Van der Waals, que son mucho más débiles que los enlaces
covalentes.
Como
consecuencia, las propiedades del grafito son diferentes en el plano y en la
dirección perpendicular al mismo. Es decir, el grafito presenta una gran
anisotropía en sus propiedades, variando muchas de ellas sustancialmente
dependiendo de la dirección en que se realice la medida. De estas
características del enlace atómico se derivan sus propiedades físicas. Así, por
ejemplo, el grafito es un material que presenta una dureza elevada en el plano
pero mucho menor en la dirección perpendicular y por tanto es muy fácil
separarlo en láminas (exfoliarlo). De manera análoga, es un buen conductor de
la electricidad en el plano, y muy malo en la dirección perpendicular. El
grafito es además un material muy inerte. Cuando el grafito es sometido a altas
presiones y temperaturas, es posible cambiar su estructura cristalina y puede
llegar a convertirse en diamante, como ocurre en el interior de la Tierra.
A
un solo plano atómico de grafito se le llama grafeno, y éste, a diferencia del
grafito, es bastante difícil de obtener. Recientemente, mediante cálculos
teóricos, se han realizado predicciones acerca de las importantes propiedades
electrónicas que podría tener este material. Entre ellas una altísima movilidad
electrónica y una baja resistividad, de manera que uno de estos planos atómicos
podría sustituir al silicio que se utiliza actualmente en multitud de
dispositivos. Ahora bien, a día de hoy, estas propuestas provienen
esencialmente de cálculos teóricos y por tanto antes de que el grafeno pase a
sustituir al silicio en la electrónica del futuro es necesario verificar las
predicciones teóricas en el laboratorio. Actualmente, éste es un campo muy
activo de investigación, y muchos grupos están trabajando en la obtención de
capas de grafeno soportadas sobre diferentes materiales, como polímeros o
aislantes, para poder determinar sus propiedades eléctricas y comprobar las
predicciones teóricas.
Por
último, en el caso de que los átomos de carbono adopten una hibridación sp se
originará la tercera estructura básica del carbono: los carbinos. Este tipo de
compuestos, al contrario que el diamante y el grafito, han sido muy poco
estudiados, llegando incluso a dudarse de su existencia en forma pura.
En
los ejemplos que hemos visto hasta ahora, los átomos de carbono que forman
parte de la estructura presentan un único tipo de hibridación. Ahora bien,
existen compuestos que tienen una configuración mezcla, por ejemplo una parte
de átomos de carbono presenta hibridación sp2 y otra sp3. Estos compuestos son
los llamados quasi-diamantes o quasi-grafitos, según predomine el número de
orbitales sp3 o sp2.
Este tipo de materiales se puede conseguir
fácilmente en los laboratorios, y presentan una gran utilidad tecnológica en
diversos campos, aunque fundamentalmente destaca su uso como protectores debido
a su elevada dureza, baja fricción y alta resistencia al desgaste. Así, por
ejemplo un recubrimiento de quasi-diamante (de no más de 500 nm de espesor)
depositado sobre unos esquíes, una raqueta de tenis o unas gafas aumenta
notablemente su dureza evitando que se rayen fácilmente.
Otro
tipo de compuestos formados fundamentalmente por carbono e hidrógeno, aunque
también pueden incluir otros elementos, como oxígeno, azufre o nitrógeno, son
los polímeros. Estos compuestos tienen una gran relevancia en la tecnología
actual debido al enorme número de aplicaciones que presentan. A esta familia
pertenecen, por ejemplo, los plásticos, como el cloruro de polivinilo (o PVC),
un material ampliamente utilizado en todo el mundo. En particular, el
descubrimiento de un cierto tipo de polímeros, llamados polímeros conductores,
ha despertado un enorme interés en la comunidad científica.
Las inusuales propiedades eléctricas y ópticas
que presentan ha permitido su aplicación en diversos campos y en concreto están
dando mucho juego en el campo de la electrónica molecular.
EEE
3.1 Conseguir diamante en un laboratorio
El
diamante se forma en el interior de la Tierra, donde la presión y la
temperatura son muy elevadas. Sin embargo, de manera artificial es posible
descomponer la molécula de metano, CH4, forzando a que los orbitales del
carbono mantengan su forma tetragonal, originando la estructura del diamante.
Este proceso se consigue en complejos equipos de vacío, en los que se aplican
descargas eléctricas al metano para que, a medida que se descompone, sus átomos
de carbono vayan reaccionando entre sí.
El
resultado es la formación de pequeños cristalitos de diamante como los que se
muestran en la figura. En ella vemos una imagen de microscopía electrónica de
barrido (SEM) siendo las aristas de cada uno de los cristalitos de
aproximadamente 500 nm. Por desgracia, debido a la gran cantidad de hidrógeno
que existe en su interior no crecen más de unas cuantas micra. De esta manera
nunca podríamos fabricar la joya que queríamos engarzar para un regalo!
El
balón de fútbol más pequeño del universo: los fullerenos
Recientemente
se han descubierto nuevas formas del carbono que son muy prometedoras para la
nanotecnología. Comenzaremos por describir la primera de ellas: el llamado C60,
fullereno o “buckyball. El balón está formado por 12 pentágonos y 20 hexágonos.
Si contamos las intersecciones de las costuras veremos que hay 60. Ahora bien,
imaginemos que ese mismo balón lo reducimos 100 millones de veces y que en cada
una de las intersecciones colocamos un átomo de carbono. Tendremos entonces una
molécula, en la que 60 átomos de carbono presentan una hibridación
esencialmente tipo sp2. La figura geométrica que forman dichos átomos se
denomina icosaedro truncado. Para que nos hagamos una idea de cómo de pequeña
es esta molécula podemos imaginarnos que la misma relación de tamaño hay entre
la tierra y el balón de fútbol que entre el balón y el fullereno.
La
posibilidad de existencia de esta molécula la predijo teóricamente E. Osawa en
los años 70 del siglo pasado. Los cálculos realizados permitieron incluso
definir muchas de sus propiedades, aunque sin embargo, no se tenía ninguna
prueba sobre la existencia de esta molécula en la naturaleza. En 1985 H. Kroto
y sus colaboradores investigaban la composición del carbono en el medio
interestelar a billones de kilómetros de distancia de la Tierra. Observaron una
señal de absorción de rayos infrarrojos desconocida hasta el momento. Buscando
de dónde podría proceder, se dieron cuenta que correspondía a esa molécula tipo
balón de fútbol predicha anteriormente. H. Kroto, R.F. Curl y R. Smalley
obtuvieron el premio Nobel de Química en 1996 por este descubrimiento. Hoy día
se conocen muchas de estas moléculas cerradas sobre sí mismas, diferenciándose
entre ellas en el número total de átomos. Unas presentan formas esféricas (como
nuestro nano-balón, el C60) , otras parecen más bien un balón de rugby. Por
ejemplo, C70, C48 o C34 son las más conocidas, sin embargo otras no se han
podido sintetizar. La existencia o estabilidad de muchas de estas moléculas es
todavía un misterio. Al conjunto de distintas moléculas cerradas sobre sí
mismas con formulación Cn se le denomina “fullerenos”.
EEE
3.2 Diez fullerenos o la calculadora más pequeña del mundo
El
investigador J. Gimzewski entró en 2001 en “el libro Guinness de los records”
por haber construido la calculadora más pequeña del mundo, de tamaño
nanométrico, basándose en la utilización de estás moléculas de C60. En
realidad, la calculadora consistía en un ábaco con únicamente 10 cuentas,
siendo cada una de ellas una molécula de fullereno. Las cuentas no se movían
con la mano, sino con la punta de un STM.
Los
fullerenos o “bucky-balls” recibieron estos nombres en honor al arquitecto Richard
Buckminster Fuller, quién diseñó cúpulas geodésicas basadas en pentágonos y
hexágonos. Un ejemplo de este tipo de cúpulas lo podemos ver en cualquier
planetario y en la figura 3.7. Este tipo de construcciones son muy estables y
logran encerrar un mayor volumen en una menor área.
Aunque
la síntesis controlada de fullerenos requiere complicadas técnicas, tales como
la vaporización del grafito o la pirólisis láser (técnica que consiste en
calentar sustancias mediante un láser de alta energía para formar otras), la
formación sin más de este tipo de estructuras se produce más fácilmente de lo
que podemos imaginar, pues son uno de los principales integrantes de la
carbonilla y se generan abundantemente en cualquier combustión. ¡Piensa en ello
cada vez que enciendas una vela!
Por una parte, son un componente fundamental de lo que se llama
electrónica molecular, ya que poseen propiedades rectificadoras interesantes
para la fabricación de nuevos dispositivos. Por otra parte, se han hecho predicciones acerca
de sus posibles aplicaciones en biomedicina. Al ser una molécula rígida,
otras biomoléculas, como por ejemplo fármacos inhibidores del virus del sida,
podrían unírsele sin deformar su estructura y ser transportadas por el
organismo hasta encontrar el virus. Además, como los fullerenos están huecos,
pueden encerrar en su interior pequeñas moléculas o incluso átomos, como por
ejemplo gadolinio. Este elemento, gracias a sus propiedades magnéticas, aumenta
la señal en los estudios de resonancia magnética nuclear utilizados en la
detección del cáncer.
A
pesar de que estas aplicaciones parecen muy prometedoras, están todavía en una
fase inicial y es necesario seguir investigando. Así, por ejemplo, hoy día se
sabe cómo encerrar moléculas o átomos dentro de los fullerenos y cómo
dirigirlos hacia un punto concreto del organismo donde desempeñarán su labor
reparadora. Sin embargo, una vez el fullereno ha liberado su carga aparece un
problema: ¿cómo deshacernos de la molécula transportadora, es decir, del
envase? Tenemos un problema de reciclado molecular.
Nanotubos
de carbono: el hilo mágico
Si
el descubrimiento del C60 fue un hito importante para la nanotecnología, el de
los llamados nanotubos de carbono lo ha superado con creces, ya que debido a
las excelentes propiedades que presentan y a lo fácil y económico que resulta
fabricarlos, nos encontramos ante un material con unas aplicaciones realmente
prometedoras. Imaginemos que disponemos de un material que es 10 veces más
ligero que el acero, 100 veces más resistente, y a la vez 10.000 veces más fino
que un cabello. A estas interesantes propiedades mecánicas se le añaden unas
relevantes propiedades eléctricas, puesto que pueden ser tanto conductores como
aislantes. Así, por ejemplo, podremos disponer de un cable para fabricar
circuitos electrónicos con diámetros, no de 0.1 micras, como en los circuitos
integrados actuales, sino inferiores a 10 nanómetros, es decir, entre 10 y 100
veces más pequeños.
Los
nanotubos de carbono fueron descubiertos de manera accidental en 1991 por S.
Ijima, cuando este investigador estudiaba el depósito de carbono que se obtiene
en una descarga eléctrica de grafito. Al realizar el análisis encontró unos
filamentos de unos pocos nanómetros de diámetro y algunas micras de largo.
Estos filamentos resultaron ser mucho más interesantes de lo que en principio
parecían, es decir un simple desecho pulverizado de carbono.
Imaginemos
un plano atómico de grafito (grafeno), y supongamos que ese plano lo enrollamos
sobre sí mismo como si se tratase de un mantel o un póster. Como se puede ver
en la figura 3.10, la forma de plegarlo puede ser recta o con un cierto ángulo,
obteniéndose un tubo tan largo como queramos. Pues bien, aquí aparece ya una de
las propiedades curiosas de los nanotubos: según como enrollemos el póster,
obtendremos un nanotubo que puede conducir la corriente eléctrica, ser
semiconductor o ser aislante. En el primer caso, los nanotubos de carbono son
muy buenos conductores a temperatura ambiente, pudiendo transportar elevadas
densidades de corriente.
Hoy
día, si queremos transportar una corriente eléctrica elevada necesitamos
utilizar cables de cobre muy gruesos y caros. Esto podría hacerse en el futuro
mediante nanotubos. Por otra parte, si introducimos defectos en la estructura
podemos generar moléculas semiconductoras y así formar diodos o transistores:
los dispositivos fundamentales de los aparatos electrónicos y que veremos en el
capítulo 6. Un diodo formado por una sola molécula es algo asombroso en cuanto
a las posibilidades de integración que abre en la industria de la electrónica.
Los nanotubos de carbono permitirán unir el mundo de la electricidad (en el que
es necesaria potencia y grandes corrientes eléctricas para mover motores) con
el de la electrónica (pequeños voltajes, pequeños dispositivos).
Decíamos
que los nanotubos poseen importantes propiedades mecánicas. Y esto no podía ser
de otra manera, ya que están formados por átomos ligeros (carbono), pero que se
encuentran unidos entre sí por fuertes enlaces (hibridación sp2). Como
consecuencia directa de esta estructura, este material es cien veces más
resistente que el acero, a la vez que diez veces menos denso. Tienen una alta
capacidad para doblarse pero sin romperse, manteniendo inalterada su estructura
interna. En cuánto a dureza, destacar que los nanotubos descritos hasta el
momento (de pared sencilla, es decir una lámina de grafeno enrollada sobre sí
misma) son muy duros. Y esta dureza puede ser incluso mayor si, en lugar de un
nanotubo de pared sencilla, lo que tenemos es un nanotubo de pared múltiple
(varias láminas enrolladas sobre sí mismas e introducidas unas dentro de otras
a la manera de las antiguas antenas de coche, los bastones telescópicos que
usamos en las montañas o las matrioskas rusas). Por otra parte son muy
eficientes conductores del calor, tal vez los mejores conocidos hasta hoy, y a
la vez presentan un bajísimo coeficiente térmico de expansión. Debido a todas
estas fascinantes propiedades, se ha potenciado enormemente la investigación
relativa a su utilización. Así, por ejemplo, si los “mezclamos” con matrices
poliméricas, podremos dotar a éstas con las magníficas propiedades de estos
hilillos mágicos.
Los
nanotubos de carbono son, por tanto, una de las grandes apuestas de la
nanotecnología actual, haciéndonos soñar con que en un futuro no muy lejano,
estos materiales estén presentes en numerosos campos como puede ser el de los
circuitos electrónicos (capítulo 6) o el de la construcción (ver el cuadro
nanotubos como un nuevo acero).
Pero
una vez que sabemos cómo está hecha, el problema es fabricarla. La solución
para su fabricación no vino desde el ámbito de la ciencia de materiales, sino
de la genética.
Primero,
en un grupo de investigación americano se consiguió secuenciar los genes
involucrados en la biosíntesis de la fibroína de manera que se pudieron conocer
los mecanismos de formación de la tela. Posteriormente, la empresa canadiense
NEXIA Biotechnologies, en el año 2000, produjo la primera tela de araña
artificial. Para ello modificaron genéticamente una raza de cabras para que
produzcan la proteína de la tela de araña como un componente más de su leche.
Así, al ordeñar las cabras se conseguían fibras como las que fabrican las
arañas. Esta empresa ha firmado un acuerdo de explotación de su patente,
llamada Biosteel ® (bio-acero), con el ejército de los EE.UU. para fabricar
chalecos antibalas más ligeros existentes.
.
EEE
3.4 Las zeolitas
Bajo
esta denominación (del griego “zein” = hervir y “lithos” = piedra, es decir,
piedras que hierven) se engloban unos fascinantes minerales que se estudian en
muchos campos debido a la gran cantidad de aplicaciones que presentan,
fundamentalmente en el campo medioambiental. Podemos definirlas como minerales
de aluminio, silicio y oxigeno que presentan una estructura ordenada de micro o
nano-poros, que permiten (o no) el paso de algunas moléculas. Las zeolitas
naturales son de origen volcánico (de ahí su nombre). Sin embargo, actualmente
en muchos laboratorios se sintetizan zeolitas artificiales, pues dependiendo de
la aplicación industrial a la que se quieran destinar pueden ser diseñadas a
medida. Por ejemplo, pueden usarse como catalizadores en la industria
petroquímica o como tamices moleculares en la purificación de gases y líquidos.
El
interior de una zeolita es un verdadero laberinto. De manera que si, como
hacemos con un guante, pudiésemos darle la vuelta y mirar en su interior, nos
encontraríamos con una superficie enorme. Como consecuencia de esta particular
estructura, las zeolitas son materiales altamente porosos (debido a la
presencia de los canales nanométricos), que pueden utilizarse para, por
ejemplo, purificar el agua como ya hacían en el Imperio Romano.
4
Nano-química: la danza de las moléculas
Modelos
atómicos de formación de moléculas llamadas fullerenos a partir de otras
moléculas más sencillas.
Ya
en el capítulo 2 quedó claro el enorme avance que ha supuesto para la
nanotecnología el contar con herramientas tan poderosas como los miscroscopios
de campo cercano (SPM). Así, por ejemplo, vimos cómo era posible ir colocando
moléculas de manera secuencial, hasta escribir un texto concreto. Sin embargo,
desde un punto de vista práctico esta metodología no es operativa, pues, por
ejemplo, la construcción del emoticono mostrado en la figura 2.10 (formado
únicamente por 10 moléculas) requiere tres horas para su ensamblaje. Obviamente
esta escala de tiempos hace inviable la construcción de dispositivos a escala
industrial mediante este tipo de procesos, imponiéndose la necesidad de buscar
otras estrategias más efectivas. ¿Cómo se pueden entonces manipular las
moléculas a voluntad, de manera que éstas se ordenen rápidamente y de una forma
determinada, para construir un dispositivo molecular? ¿O estará una vez más la
respuesta en la propia naturaleza?
Construcción
de dispositivos moleculares mediante la aproximación bottom-up
Seamos
realistas. Imaginemos que renunciamos a construir un dispositivo uniendo
moléculas de una en una, pero que decidimos construirlo utilizando esferas de
mayor tamaño. Esto es perfectamente posible pues existen robots que, trabajando
unidos a microscopios electrónicos (tipo SEM), son capaces de manipular objetos
de estas dimensiones con una gran precisión. De hecho, estos robots han
conseguido colocar nanoesferas de sílice (dioxido de silicio), de unos 700 nm
de diámetro, para formar estructuras ordenadas. Teniendo en cuenta que el
tiempo promedio para que el robot coloque cada esfera es de 7 minutos, ¿cuánto
tardaríamos en tener listo un dispositivo con un volumen 1 mm3? Una cuenta
sencilla nos indica que se necesitarían en torno a 74.000 años para ensamblar
esta estructura. Parece imposible, por tanto, utilizar la aproximación
bottom-up para construir cualquier cosa. ¿Es entonces un fracaso la
nanotecnología a nivel molecular? Está claro que no, pero necesitamos nuevas
ideas. A la vista está que la estrategia de ir colocando “piezas”
secuencialmente mediante sistemas mecánicos no parece ser la adecuada para
lograr nuestro objetivo: quizá debamos pensar en algo absolutamente diferente.
Y para ello, nada mejor que fijarnos en los mecanismos que llevan millones de
años funcionando y evolucionando en la naturaleza y que han permitido el
desarrollo de los seres vivos. Cualquier organismo es un estupendo ejemplo de
construcción “bottom-up”, ya que a partir de una secuencia genética y
aprovechando recursos del entorno se logran fabricar sistemas de enorme
complejidad estructural y funcional. Pensemos, por ejemplo, en cómo a partir de
una serie de unidades básicas constituyentes (nucleótidos, aminoácidos, ácidos
grasos, monosacáridos) se originaron estructuras más complejas (ácidos
nucleicos, proteínas, lípidos, polisacáridos).
Y
es que aquello, que ya empezaba a parecernos un sueño imposible, es
precisamente lo que llevan haciendo ciertas moléculas orgánicas por sí solas
desde hace miles de millones de años. Poco a poco, como veremos en el capítulo
5, las moléculas fueron organizándose en estructuras cada vez más complejas
hasta que dieron lugar a la vida. Inspirándonos, pues, en la naturaleza,
podemos aprovechar esta tendencia que exhiben ciertas moléculas para
autoorganizarse según patrones regulares a escala nanométrica, de forma tal que
nos permita construir dispositivos moleculares mediante la aproximación
bottom-up (de abajo a arriba).
EEE
4.1 El azul maya: un ejemplo de material híbrido
Quizá
lo que más llama la atención al observar este hermoso mural, pintado en torno
al siglo VIII, es el intenso color azul que presenta el fondo. Esta coloración
tan vistosa la proporciona un pigmento conocido por “azul maya”, pues fue muy
utilizado por esta civilización en múltiples murales y piezas de cerámica. Se
elaboraba mediante extracción del índigo o añil (un colorante orgánico natural)
obtenido a partir de ciertas plantas tropicales. Si tenemos en cuenta que los
colorantes orgánicos son, en general, moléculas muy sensibles que se alteran
fácilmente por acción del calor, la luz o el ataque químico ambiental, el
intenso color azul que presenta el mural tras muchos siglos de rigores
ambientales parece algo milagroso. ¿Cómo ha conseguido el color mantenerse
inalterado con el paso del tiempo? Pues bien, el secreto de los mayas ha
permanecido bien guardado hasta que a principios de este siglo la existencia de
ciertas técnicas ha permitido saber que tiene este colorante que no tengan
otros para presentar unas propiedades tan peculiares.
En
realidad, el pigmento conocido como “azul maya” no está únicamente formado por
el colorante orgánico (índigo), sino que es un perfecto ejemplo de material
híbrido orgánico-inorgánico, pues el colorante se encuentra atrapado en la red
de un mineral llamado paligorskita. El compuesto resultante presenta un color
azul intenso (proporcionado por el índigo) y a la vez una enorme resistencia al
ataque ambiental y
una
gran estabilidad (aportadas por el mineral). La “síntesis” de un material tan
particular fue realizada por los mayas sin ellos saberlo, pues una vez extraído
el índigo de las hojas lo sometían a un proceso de lavado para el cual
utilizaban aguas arcillosas ricas en paligorskita. Durante este proceso de
lavado, el índigo se introducía en huecos de tamaño nanométrico de la red del
mineral donde quedaba protegido originando un pigmento al cual los mayas le
sacaron un excelente partido. Hoy día, ya en el siglo XXI, uno de los objetivos
de la química es precisamente lograr lo que ya consiguieron los mayas en el
siglo VIII: el diseño de nuevos productos a nivel atómico y molecular que
presenten propiedades nuevas y diferentes a las de los constituyentes. Ahora
bien, en la actualidad, esta síntesis de compuestos híbridos ya no es un fruto
de la casualidad, sino una consecuencia de los enormes avances realizados en
numerosos campos que han abierto las puertas al diseño de materiales a partir
del control molecular y supramolecular.
La
química supramolecular y el diseño de moléculas a la carta
Como
consecuencia de lo expuesto anteriormente, queda claro que, para que este
enorme desarrollo de lo “nano” esté teniendo lugar, es necesaria la
convergencia de múltiples disciplinas científicas. Entre ellas, la química
juega un papel esencial. En particular, una serie de campos relativamente
nuevos entre los que se incluyen los materiales moleculares, los polímeros
funcionales o una “nueva clase de química”, conocida con el nombre de química
supramolecular, cuyos padres fueron los científicos norteamericanos C. J.
Pedersen y D. J. Cram y el francés J.-M. Lehn. Los tres compartieron el Premio
Nobel de Química en 1987 por sus trabajos en este campo: “for their development
and use of molecules with structurespecific interactions of high selectivity”
(“Por el desarrollo y uso de las moléculas dotadas de acción estructural
específica de alta selectividad"). El prefijo “supra” es de origen latino
y significa “sobre, por encima de, más allá de”. Por tanto, podríamos decir que
la química supramolecular es aquella química que está más allá de la molécula.
Siendo más precisos, podemos definirla como una disciplina emergente dentro del
campo de la química que se encarga del estudio de entidades moleculares
(“supramoléculas”) surgidas como consecuencia de interacciones no covalentes
entre varias especies químicas. Es, en definitiva, y en palabrasde J.-M. Lehn,
la química de los enlaces intermoleculares (entre moléculas). La naturaleza
también trabaja habitualmente con supramoléculas y así, por ejemplo, los
ribosomas, responsables de traducir la información genética a proteínas, son
auténticos agregados moleculares formados por más de 50 biomoléculas.
El inicio de la química supramolecular
artificial se produjo en los años 60 del pasado siglo cuando Pedersen, en el
curso de la síntesis de un determinado compuesto, obtuvo un subproducto que
resultó ser una de las primeras supramoléculas que se estudiaron: la formada
por éteres-corona (del inglés, “Crown ethers”) y los iones alcalinos. Los
éteres-corona son éteres cíclicos llamados así porque su forma se parece a la
corona de un rey vista desde arriba. Como podemos ver en la figura 4.3,
presentan una cavidad en su centro cuyas dimensiones varían en función del
tamaño del anillo. Este tipo de compuestos son capaces de reconocer a los
cationes alcalinos al interaccionar atractivamente con la carga positiva del
ión. Dado que los iones alcalinos poseen diferente radio iónico, cada uno de
ellos va a encajar preferentemente en un éter-corona distinto, aquél cuyo hueco
central sea más parecido al tamaño del ión. Así, por ejemplo, el éter cuyo
hueco central es el más pequeño (en torno a 1,4 Å) de los representados en la
figura 4.3, llamado éter 12-corona-4 (indicando que el anillo tiene 12 átomos,
de los cuales 4 son oxígeno) podría acoplarse al ión Li+ cuyo diámetro es 1.2
Å, pero no al K+ cuyo diámetro es 2.7 Å.
La estructura resultante de la interacción
éter-corona e ión alcalino que vemos representada en la figura es, por tanto,
un ejemplo típico de especie supramolecular.
Los
enlaces covalentes son enlaces fuertes entre átomos. Estos enlaces, una vez
formados, son muy estables y, por tanto, difíciles de romper. En cambio, las
fuerzas intermoleculares involucradas en la formación de una estructura
supramolecular son de mucha menor magnitud (ver tabla siguiente). Entre las
interacciones de este tipo más usuales destacan, por ejemplo, los enlaces de
Van der Waals o la formación de puentes de hidrógeno. Esto implica que, en
general, los enlaces que tienen lugar en química supramolecular son más débiles
que en química molecular, resultando en interacciones típicamente dinámicas y
reversibles, lo cual va a ser de gran importancia para la nanotecnología.
EEE
4.2 Respiramos gracias a moléculas
En
los seres vivos también existen moléculas con forma de anillo en cuyo interior
se introducen otros átomos. Un ejemplo típico es el grupo hemo, que forma parte
de la hemoglobina en los glóbulos rojos de nuestra sangre. El hierro se sitúa
en el centro del anillo de la molécula de porfirina, pudiendo unirse también al
oxígeno. Como consecuencia de ello, este compuesto es capaz tanto de almacenar
como de transportar oxígeno, permitiendo así la respiración en los seres vivos.
En la figura, vemos el modelo atómico de una molécula de porfirina con un átomo
de Fe, así como una imagen de la misma molécula depositada sobre una
superficie, en un intento de reproducir los procesos de captación de energía
sobre una superficie a nivel molecular. De nuevo la nanociencia se fija en la
naturaleza.
Aunque
la importancia que ha adquirido esta nueva área de la química es relativamente
reciente, la base de funcionamiento que subyace en ella (el reconocimiento
molecular) es común a muchos procesos bioquímicos que se dan en la naturaleza:
catálisis enzimática, reconocimiento antígeno-anticuerpo y formación de
agregados macromoleculares como el ribosoma, que hemos comentado anteriormente.
Cuando estos procesos, que implican un reconocimiento molecular entre varias
especies químicas, se producen de manera repetitiva se forman agregados de gran
complejidad. Estos mecanismos suponen la generación de una estructura
supramolecular a partir de la auto-organización y auto-ensamblaje de ciertas
“unidades básicas” (una sola molécula o más de una molécula), que al
reconocerse entre sí se unen de manera espontánea formando arquitecturas
nanométricas complejas. La idea conductora final es que estos sistemas
autoensamblados, que el químico sintetiza en el laboratorio, puedan ser
utilizados por profesionales de otras áreas (p.e. físicos o ingenieros) para la
construcción de diversos dispositivos. Muchos grupos de investigación han
dedicado grandes esfuerzos al diseño y construcción de máquinas moleculares en
las que mediante un estímulo externo (input) la supramolécula transforma su
estructura obteniéndose un movimiento mecánico (output). Se trata, pues, de
diseñar sistemas moleculares capaces de realizar una determinada acción por
efecto de un estímulo externo. La aplicación de este tipo de sistemas puede ser
tan variada como el diseño de músculos artificiales o de interruptores
moleculares que puedan utilizarse en la construcción de ordenadores
moleculares.
La
nanotecnología mueve montañas: máquinas moleculares
Después
de todo lo que hemos visto hasta el momento, a nadie le sorprenderá que el
concepto de máquinas moleculares apareciese ya esbozado en el discurso que
Feynman pronunció en 1959 frente a la Sociedad Americana de Física.
“¿Cuál
podría ser la utilidad de tales máquinas? ¿Quién lo sabe? No puedo saber
exactamente que pasaría pero no tengo ninguna duda que cuando tengamos el
control sobre la colocación de cosas a nivel molecular se nos abrirá un enorme
rango de posibles propiedades que las sustancias pueden tener y de las cosas que
podemos hacer”.
El
concepto de máquina o motor molecular puede comprenderse fácilmente por simple
extrapolación de las máquinas macroscópicas que todos conocemos. En el mundo
que nos rodea, un motor es un dispositivo capaz de transformar la energía que se
le proporciona en movimiento.
Pues
bien, al igual que sus equivalentes macroscópicos, podemos definir una máquina
a nivel molecular como un dispositivo, formado a partir del ensamblado de una
serie de entidades moleculares, y diseñado de manera que al recibir un estímulo
externo (irradiación luminosa, impulsos eléctricos, cambio de pH) transforma su
estructura originando un movimiento mecánico.
Este
proceso es reversible y, por tanto, cuando el estímulo cesa se vuelve a la
situación inicial.
Los
rotaxanos son compuestos supramoleculares que podríamos asemejar a un eje (una
molécula lineal) introducido dentro de una rueda (una molécula cíclica). Para
que la rueda no se salga del eje en los extremos de éste último debe haber
grupos voluminosos (a modo de topes). Cuando a este compuesto supramolecular le
apliquemos un determinado estímulo existen dos movimientos mecánicos posibles:
una rotación relativa entre la molécula-eje y la molécula-rueda o una
translación relativa de la molécularueda a lo largo de la molécula-eje.
Imaginemos que en el rotaxano representado en la figura, la molécula lineal
presenta dos zonas diferenciadas, una más rica en electrones que la otra.
La molécula cíclica, que tiene cargas
positivas, se sitúa sobre la zona más rica en electrones quedando unida a ella
por interacciones electrostáticas. Si mediante un estímulo externo (por
ejemplo, químico) protonamos esta zona, se producirá una repulsión
electrostática entre ella y la molécula cíclica. La consecuencia de esta
repulsión es un deslizamiento de la molécula cíclica sobre la molécula lineal:
el pistón se desplaza sobre el eje. El proceso descrito es reversible y, por
tanto, si desprotonamos, volveremos a la situación de partida. Se origina así,
un movimiento mecánico de vaivén como consecuencia de la repetición del
proceso.
Este
es sólo un ejemplo de cómo funciona “una máquina molecular”, pero dependiendo
de, entre otras cosas, el tipo de estímulo suministrado o los movimientos
mecánicos que origine tendremos toda una amplia gama de posibilidades
tecnológicas.
Las
aplicaciones en nanotecnología que se pueden derivar de este tipo de
dispositivos capaces de responder de una forma predecible ante determinados
estímulos son inmensas y van desde la distribución de fármacos a través de
membranas a la construcción de músculos artificiales. Un ejemplo interesante y
al que se le dio una gran difusión mediática en diversos periódicos con
encabezamientos tan sugerentes como ”La nanotecnología mueve por vez primera
una montaña: Una gota visible a simple vista es desplazada por una máquina
80.000 veces más pequeña que el ancho de un cabello” fue la construcción de una
máquina molecular realizada por el grupo del profesor D. Leigh de la
Universidad de Edimburgo en el Reino Unido. El dispositivo construido por este
grupo de investigación y sus colaboradores está basado en la modificación de
una superficie de oro mediante la formación de una monocapa autoensamblada de
alcanotioles sobre la cual se adsorbe un rotaxano.
Mediante irradiación con luz UV (con longitud
de onda en el rango 240-400 nm) se modifican las propiedades de la superficie,
y como consecuencia de esto, se logra desplazar una gota (a lo largo de 1 mm)
que previamente ha sido depositada sobre dicha superficie. Aunque se trata
únicamente de 1 mm y puede no parecernos gran cosa, no hay que olvidar la
escala en que nos movemos, como recuerdan los autores del trabajo: “la potencia
de la máquina equivale en el mundo macroscópico a un pistón que se corre sólo
un milímetro pero mueve un rascacielos” (este trabajo fue publicado en la
revista Nature Materials).
La gran repercusión mediática que tuvo este
experimento se debe a que éste es uno de los primeros ejemplos que demuestran
cómo las máquinas moleculares pueden integrarse con éxito en el mundo
macroscópico, pudiéndose a partir de estas ideas desarrollar nano-máquinas que
realicen algunas tareas físicas. ¡Y esto es sólo un pequeño ejemplo de lo que se
puede conseguir mediante la utilización de máquinas moleculares!
Las monocapas autoensambladas
El
concepto de autoensamblaje molecular ha sido ampliamente utilizado para lograr
la modificación de diversas superficies, originando lo que se conoce con el
nombre de monocapas autoensambladas. La formación de este tipo de estructuras
está basada en la capacidad que presentan ciertas moléculas para, de forma
espontánea, adsorberse (quedar unidas) y colocarse de una determinada manera
sobre la superficie de un material.
¿Cómo
podemos visualizar este tipo de procesos? Pues bien, imaginemos que tiramos al
aire un montón de ladrillos y que estos al caer, sin necesidad de ninguna
acción externa, se van acoplando entre ellos de manera que acaban formando la
pared de una casa. Esta forma de construir, que con ladrillos sería imposible,
es mucho más fácil con moléculas. Tanto, que es accesible para cualquier
estudiante de química, ya que en realidad el mérito no será suyo sino de las
propias moléculas.
El proceso de autoensamblado molecular, que se
produce de forma espontánea, da lugar a la formación de capas cuyo espesor
corresponde al de una sola molécula. De ahí que dichas capas se conozcan con el
nombre de monocapas autoensambladas (en inglés, “self assembled monolayers” o
SAMs).
Un
ejemplo de formación de monocapas autoensambladas. El experimento fue realizado
recientemente en el laboratorio de investigación de uno de los autores de este
libro, donde mediante la utilización del microscopio de efecto túnel (STM) se
estudió la formación de una monocapa autoensamblada de una molécula orgánica:
el PTCDA (dianhídrido perililenotetracarboxílico). Se observó una superficie
plana de oro.
La
forma de espina de pescado o “zig-zag” que corresponde a átomos de oro que sobresalen
un poco sobre sus vecinos. Esta superficie limpia es la que va a utilizarse
como sustrato para depositar sobre ella moléculas orgánicas de PTCDA. Se puede
ver cómo estas moléculas, una vez se han puesto en contacto con la superficie,
se van a desplazar sobre ella hasta que se encuentren con otra molécula,
momento en el que se colocarán de una manera determinada (en este caso,
formando una cadena en “zig-zag”).
Se
pudeo ver la imagen de la monocapa de PCTDA resultante una vez se ha cubierto
toda la superficie, junto con un esquema de la colocación de estas moléculas
(D). Una vez que la capa está completa ya no se adsorben más moléculas. Ellas
solas se han reconocido y colocado de manera ordenada sobre la superficie. Para
que esto suceda no tenemos que hacer absolutamente nada pues el proceso ocurre
de forma espontánea, y son las propias moléculas las que buscan su disposición
más estable sobre la superficie.
Por
tanto, el procedimiento experimental para formar una monocapa autoensamblada es
extremadamente sencillo: basta con poner en contacto la superficie elegida con
las moléculas orgánicas (estas pueden encontrarse en disolución o llegar a la
superficie en fase de vapor a través de un sistema de vacío) para que se
produzca la adsorción, dando lugar a una monocapa de orientación y
empaquetamiento bien definidos.
¡Hemos
pasado de 3 horas para colocar 10 moléculas a pocos segundos para colocar
millones de ellas! Aunque en el ejemplo anterior se ha utilizado una molécula
orgánica bastante compleja para formar la monocapa, tal vez las moléculas más
útiles para comprender y aprovechar los procesos de autoensamblado sobre
superficies metálicas de oro sean los llamados alcanotioles: hidrocarburos
saturados (alcanos) que acaban en un grupo tiol (grupo formado por un átomo de
azufre y uno de hidrógeno, - SH), como indica la figura 4.7.
En
el tiol que se adsorbe podemos distinguir 3 partes: cabeza o grupo de anclaje,
esqueleto o grupo espaciador y grupo terminal o funcional. La cabeza
proporciona la afinidad química con el soporte, en este caso por la interacción
azufre-oro, permitiendo su anclaje a la superficie; el esqueleto orgánico
posibilita la estabilización de la estructura mediante débiles interacciones de
Van der Waals con los esqueletos de otras moléculas quimiadsorbidas vecinas, y
también permite la formación de estructuras ordenadas.
Por
último, el grupo funcional específico es el que va a quedar expuesto al
ambiente y a definir tanto la reactividad como las propiedades físico-químicas
de la superficie modificada, y por consiguiente, sus posibles aplicaciones.
El
gran potencial que se esconde detrás de la utilización de monocapas
autoensambladas para llevar a cabo ingeniería de superficies ya se intuyó casi
desde su descubrimiento, suscitando un gran interés en investigadores de todo
el mundo. Los numerosos trabajos de investigación dedicados al estudio de estas
capas han permitido que, con el tiempo, se haya convertido en una estrategia
muy utilizada para la preparación de superficies activas.
En
este contexto, las monocapas autoensambladas se utilizan fundamentalmente para
dos fines generales: diseñar superficies con propiedades específicas o dotar a
las superficies con determinados grupos funcionales de utilidad en reacciones
posteriores.
EEE
4.4. Diseño de superficies con propiedades específicas: una gotita de agua muy
voluble
Vemos
dos placas de oro sobre las que se ha depositado una gota de agua. Si nos
fijamos bien, vemos que en la imagen de la derecha la gota de agua se extiende
ocupando toda la superficie posible. Así a simple vista, parecería que la gota
y el oro están encantados de haberse conocido. En cambio, en la imagen de la
izquierda la situación ha cambiado radicalmente: ahora nuestra gota de agua
parece no querer saber nada del oro, recogiéndose todo lo que puede sobre sí
misma, intentando minimizar el contacto.
¿Qué
puede estar pasando aquí? Respecto a la utilización de monocapas
autoensambladas como materiales de recubrimiento o protección inteligente de
superficies, ¿quién no ha imaginado en un día de lluvia intensa que el agua que
cae sobre los cristales del coche se expulse lejos de ellos sin que ni tan
siquiera los roce? O que ocurra algo similar en nuestros zapatos o en el
paraguas. Aproximarnos a esta situación tan idílica implicaría el diseño de un
material lo más hidrofóbico posible (que repela el agua). Volvamos ahora a las
dos fotografías anteriores. En la fotografía de la derecha se observa como al
depositar una gota de agua sobre una placa de oro, el agua se extiende sobre la
superficie del metal.
Ahora
bien y aunque a simple vista no lo podamos apreciar, la superficie de oro ha
sido modificada utilizando monocapas autoensambladas de un alcanotiol, el cual
al exponer grupos –CH3 hacia el exterior ha conseguido cambiar las propiedades
del oro aumentando de una manera significativa su hidrofobicidad. El segundo
gran campo de aplicación de la formación de capas moleculares auto-ensambladas
sobre sustratos metálicos está basado en la facilidad con que una superficie
puede modificarse con una gran variedad de grupos funcionales. En este
contexto, monocapas autoensambladas que acaban en grupos –COOH, -NH2 o –OH son
ampliamente utilizadas como punto de partida en estos procesos de síntesis
superficial, donde diversos reactivos son incorporados en fases consecutivas. Y
así, mediante un control preciso de la reactividad, obtenido gracias a los
grupos funcionales involucrados, se van construyendo paso a paso, diversas
nanoestructuras con infinidad de aplicaciones potenciales.
Dependiendo de la naturaleza de la molécula
que queramos incorporar, se elegirá para formar la monocapa autoensamblada un
compuesto que posea el grupo funcional adecuado. Sigamos con el ejemplo del
oro. Si nos interesara la incorporación de una enzima para fabricar un
biosensor, elegiríamos un tiol que tuviese como terminación un grupo
carboxílico (-COOH) capaz de reaccionar con los grupos amino (-NH2 ) presentes
en la enzima.
En
particular, la incorporación de biomateriales (proteínas, ADN u otras
biomoléculas) a superficies metálicas mediante monocapas autoensambladas ha
suscitado un enorme interés durante los últimos años. Esto es debido
fundamentalmente a que los materiales resultantes van a tener una gran
aplicación no sólo en el campo de la química o la ciencia de materiales, sino
en muy diversas áreas como la biotecnología o biomedicina, como veremos en el
capítulo 5.
Nanopartículas
Acabamos
de ver cómo el autoensamblado molecular presenta un gran número de
aplicaciones. Sin embargo, todos los ejemplos presentados hasta ahora se
realizan sobre superficies, y por tanto el dispositivo así construido no tiene
movilidad. Esto puede resultar un impedimento para muchas aplicaciones.
Imaginemos, por ejemplo, que queremos diseñar un diminuto dispositivo similar a
un submarino para, una vez cargado con el medicamento adecuado, introducirlo en
el torrente sanguíneo y enviarlo a destruir un determinado virus.
Pues
bien, esto se podría conseguir cambiando de soporte y en lugar de utilizar una
superficie metálica para incorporar el material biológico, usar nanopartículas
inorgánicas capaces de moverse por un medio líquido como, por ejemplo, nuestra
sangre.
Como
su propio nombre indica, el término “nanopartícula” designa una agrupación de
átomos o moléculas que dan lugar a una partícula con dimensiones nanométricas.
Es decir, que su tamaño está comprendido entre 1 y 100 nm. Dependiendo de
cuáles sean los átomos o moléculas que se agrupan se originarán diferentes
tipos de nanopartículas.
Así,
por ejemplo, tendremos nanopartículas de oro, de plata o nanopartículas
magnéticas, si están formadas por átomos de Fe o Co. Su pequeño tamaño hace que
estas estructuras tengan unas propiedades características y esencialmente
distintas a las que presenta el material en volumen. En el capítulo 1 ya vimos
las repercusiones que puede tener la variación de la relación
superficie/volumen.
EEE
4.5 Nanopartículas de oro: ¿Un material nuevo?¿Una copa mágica?
La
copa quefFue fabricada probablemente en Roma, aproximadamente en el siglo IV
a.C, y representa una escena mitológica. Lycurgus, rey de los tracios era un
hombre de temperamento violento que, sin pararse a pensar en las consecuencias,
no dudó en atacar al dios Dionisio y a una de sus protegidas. Ésta, llamada
Ambrosia, decide vengarse y para ello pide ayuda a la Madre Tierra (Gea),
rogándole ser transformada en viña. En el momento en que lo consigue, rodea con
sus múltiples ramas al rey, atrapándolo. Esta copa, que bajo la luz del día, y
aparte de su belleza y originalidad, no tiene nada mágico, adquiere tintes
sobrenaturales cuando la iluminamos desde dentro con la luz de una simple
linterna.
En
ese momento, la escena mitológica, que hasta entonces habíamos visto
representada en tonos verdes y opacos, adquiere una coloración completamente
distinta. Tonos rojos, traslúcidos y brillantes se apoderan de la escena en que
Lycurgus se bate ramas que le
aprisionan. ¿Será que la Madre Tierra sigue haciendo de las suyas y a golpe de
luz ha decidido asustar aún más a Lycurgus? La explicación de este extraño
comportamiento hay que buscarla no en la mitología, sino en las pequeñas
cantidades de nanopartículas de oro y plata con qué está fabricada la copa, y
que son las responsables de sus inusuales propiedades ópticas. Como demuestra
la copa de Lycurgus exhibida en el British Museum o las vidrieras de cualquiera
de nuestras catedrales, las nanopartículas han sido ampliamente utilizadas a lo
largo de la historia fundamentalmente con fines artísticos, aunque los
artesanos que las empleaban no conocían su existencia: eran “nanotecnólogos”
sin saberlo.
Hoy
en día, una vez conocida la química que hay detrás, las aplicaciones de las
nanopartículas se han ampliado a mundos tan diversos como, por ejemplo, las
pinturas de los coches o la nanomedicina. Hemos visto que un conjunto de átomos
forma una nanopartícula, pero si lo que unimos es una sucesión de moléculas
orgánicas dispuestas de manera parecida a las ramas de un árbol, formamos un
“dendrímero” (del griego dendrón = árbol). El núcleo central en torno al cual
se forma el dendrímero puede ser una molécula orgánica o incluso una
nanopartícula, que actúe como “semilla”.
A partir de este núcleo central van creciendo
capas de forma radial dando lugar a una macromolécula altamente ramificada.
Cada una de las capas añadidas aumenta el radio de la nanoestructura resultante
entre 1 y 10 nm, lo que ofrece un amplio abanico de aplicaciones en el nanomundo.
El tamaño, forma y reactividad del dendrímero se controlan mediante el tipo de
moléculas utilizadas, su grado de ramificación y el número de capas
superpuestas. Dada la naturaleza porosa del entramado molecular que se origina,
los dendrímeros pueden construirse de tal forma que incluyan en su interior (o
expongan sobre su superficie) determinadas moléculas de interés, por ejemplo
fármacos o anticuerpos (ver capítulo 5).
EEE
4.6 Materiales fotocrómicos
Existen
materiales llamados fotocrómicos que cambian de color o adquieren un color
determinado al ser iluminados con luz. Algo así como la copa de Lycurgus
moderna. Estos materiales consisten en moléculas orgánicas dispersas en
películas delgadas de vidrio. Estas moléculas tienen la capacidad de cambiar de
estructura al ser irradiadas con luz y volver a adquirir su estructura inicial
al cesar la irradiación. Estos materiales presentan infinidad de aplicaciones
desde la decoración hasta sensores lumínicos.
Como
comentábamos en el prólogo de este libro, una primera aproximación a lo que “la
nanotecnología” puede significar es la situación descrita en la obra “Un viaje
alucinante” (ver capítulo 9), donde una nave diminuta se aventura por el
torrente sanguíneo con el fin de llegar a una zona dañada del cerebro y
repararla.
Pues
bien, como veremos en el capítulo siguiente, en cierto sentido las
nanopartículas o dendrímeros podrían constituir esa nave que va a actuar como
transportador de fármacos hasta un determinado órgano dañado. Tomemos esta idea
como ejemplo final: vamos a diseñar un dispositivo que lleve un fármaco hasta
una célula cancerígena.
Nuestra
versión particular del submarino va a ser una nanopartícula, que debido a su
pequeño tamaño pueda desplazarse por el torrente sanguíneo sin taponarlo. Lo
primero que necesitamos, está claro, es un motor para el submarino (la
nanopartícula). Este motor podría ser el núcleo magnético de la nanopartícula:
un
corazón
de óxidos de hierro, o de hierro y cobalto.
Así,
mediante el uso de campos magnéticos podemos dirigirlo a voluntad desde el
exterior del cuerpo. Como estos materiales son tóxicos, previamente a su
liberación en el torrente sanguíneo, los recubriremos con una capa de oro que,
al ser un metal noble y poco reactivo, no presenta complicaciones para el
organismo. Para que esta capa de oro no se despegue podemos utilizar una capa
intermedia que mejore la adherencia entre el núcleo y la corteza.
Además,
utilizando esta cubierta de oro, podemos aprovechar todos los conceptos que
hemos aprendido anteriormente de autoensamblado de moléculas. Esta capa de oro
puede ser modificada, por ejemplo, con alcanotioles como si fuesen “pelos” que
recubren la superficie de la nanopartícula. Los alcanotioles, a su vez, pueden
terminar en moléculas como las usadas en la quimioterapia actual, con lo que
lograríamos llevar nuestra carga explosiva hasta el tumor que queremos
destruir. Además, gracias al recubrimiento final con moléculas biológicas,
podremos lograr que el submarino navegue por nuestro cuerpo sin que sea reconocido
por nuestro sistema inmune como un intruso.
5
Nano-biotecnología: en busca de los secretos de la vida
Bacterias
llamadas Geobacter sobre una superficie vistas por un microscopio de fuerzas
atómicas (AFM). La resolución es tan elevada que se puede ver estructura
nanométrica dentro la bacteria.
O,
dicho de otra forma, el de la nanociencia y el de la biotecnología. Sin
embargo, si lo pensamos un poco, nos damos cuenta de que las moléculas que
constituyen los seres vivos son en realidad nano-estructuras, disposiciones
tridimensionales de átomos que, aunque sean más o menos complejas, casi siempre
tienen un tamaño en el rango de los nanómetros.
Entonces,
¿por qué no atrevernos a combinar lo mucho que se ha avanzado en uno y otro
campo para entender mejor la estructura de la materia viva, y para diseñar
nano-dispositivos con aplicaciones biológicas? Hoy en día las cosas han
cambiado y, precisamente, lo “nanobio” está de moda.
Primera estación: el
micromundo
El
avance científico siempre ha estado condicionado por los adelantos
tecnológicos. Uno de los ejemplos más claros es cómo se ha ido estudiando los
objetos progresivamente más pequeños cuando la tecnología ha permitido “verlos”
o al menos conocer alguna de sus características, tal como se ha expuesto en el
capítulo 2. Esto ha sido fundamental para investigar sobre los componentes de
los seres vivos, como veremos a continuación.
Una
de las ramas de la biología actual es la microbiología, que se ocupa del
estudio de los microorganismos, un enorme grupo de seres vivos microscópicos
que existen como células aisladas o asociadas. Precisamente en esta definición
ya aparecen varios términos con el prefijo “micro”, que dan una idea del tamaño
del que estamos hablando: la micra o micrómetro (μm), que es la milésima parte de
un milímetro.
¿Y
desde cuándo hemos podido ver los microorganimos y las células individuales?
Durante mucho tiempo se sospechó que en numerosos fenómenos naturales y
artificiales intervenía algún tipo de criaturas vivas desconocidas, que eran
demasiado pequeñas como para ser observadas a simple vista. Algunos de tales
procesos eran tan útiles para la humanidad como la fermentación del pan o la
cerveza (llevada a cabo por ciertas levaduras) y otros eran tan destructivos
como las terribles epidemias de peste que asolaron Europa durante la Edad Media
(una pandemia producida por la bacteria Yersinia pestis).
Sin embargo, poco o nada se sabía entonces
acerca de las “criaturas” protagonistas, precisamente por algo tan sencillo
como que no se podían observar a simple vista (los humanos no podemos ver
objetos que midan menos de unos 50 μm, aproximadamente el grosor de
un cabello humano) y ni siquiera con una lupa. Las cosas cambiaron a finales
del siglo XVI, con la invención del microscopio.
Básicamente, los primeros microscopios eran
instrumentos muy simples formados por un par de lentes alineadas, una cercana
al objeto que se quería observar (llamada por ello “objetivo”) y otra cercana
al ojo del observador (llamada “ocular”), separadas entre sí por un tubo hueco
de unos 8 ó 10 cm.
Con
ellos era posible aumentar la imagen hasta unas 200 veces, aunque debido a lo
rudimentario del proceso de fabricación, lo que se observaba aparecía siempre
borroso y poco definido. Por cierto, ¿quién inventó el microscopio? Depende a
quién le preguntemos: los italianos dirán que fue Galileo Galilei, y los
holandeses que Zacharias Janssen.
En
cualquier caso, las primeras observaciones importantes al microscopio se
hicieron casi cincuenta años después de la invención de este aparato, cuando en
1664, R. Hooke (un científico inglés que también fue famoso por sus polémicas
con Newton acerca de quién de los dos había sido el primero en descubrir la
gravitación universal) observó una fina lámina de corcho y comprobó que era un
material poroso formado por cajas o celdillas que denominó “células”.
El
padre de este término que hoy tanto utilizamos había visto células vegetales,
pero muertas. Unos años más tarde, el biólogo italiano M. Malpighi observó por
primera vez al microscopio células vivas que formaban parte de tejidos de
animales y plantas. Más tarde, A. van Leeuwenhoek, que era un experto pulidor
de lentes holandés, perfeccionó el dispositivo usando lentes más pequeñas y
potentes, construidas con vidrio de mejor calidad y mucho mejor pulidas.
Gracias a los casi 500 aumentos de su microscopio, alrededor del 1676 logró
observar por primera vez la gran cantidad de microorganismos que contenía el
agua estancada. Estaba viendo células vivas individuales de formas muy diferentes,
que se movían libremente por el agua. Además, dibujó con mucho cuidado lo que
él llamaba “diminutos animáculos”, y en 1683 llegó a observar incluso
bacterias.
Sin embargo, el que hoy consideramos como
padre de la microbiología tuvo ciertos problemas iniciales para ser reconocido,
ya que tenía por costumbre hacer públicos sus descubrimientos mediante cartas
dirigidas a la Royal Society de Londres... pero escritas en holandés y no en la
que ya era lengua universal de la ciencia. Así, hubo que esperar hasta 1684
para que sus cartas fueran traducidas al inglés, y con ello este pulidor de
lentes logró pasar a la historia de la ciencia. Una curiosidad: van Leeuwenhoek
también descubrió que en el semen humano había espermatozoides.
Durante
el siglo XVIII los microscopios se fueron perfeccionando sobre todo en sus
partes mecánicas, lo que permitió un aumento en su facilidad de uso y
estabilidad. Sin embargo, las mejoras de la óptica no llegaron hasta finales
del XIX, cuando en 1877 el físico alemán E. K. Abbe publicó su teoría del
microscopio y, por encargo del óptico y fabricante de microscopios C. Zeiss,
mejoró la microscopía de inmersión sustituyendo el agua por aceite de cedro.
Con
ello se podía llegar a un aumento de unas 1000 veces, lo que permitía observar
bien las bacterias (cuyo tamaño es de aproximadamente 1 μm) y mejor aún las células
eucariotas (con tamaño de entre 10 y 20 μm). En la década de 1920 casi
se había alcanzado el límite teórico para los microscopios ópticos (ver
capítulo 2), aunque era evidente que las células estaban formadas por
componentes aún más pequeños que era necesario estudiar.
Los virus: nanomáquinas que
evolucionan
A
lo largo de la historia, el descubrimiento de gran parte de los microorganismos
conocidos se ha debido a la investigación de las enfermedades producidas por
ellos. Así, a mediados del siglo XIX (gracias a los trabajos pioneros de L.
Pasteur y R. Koch) estaba bien establecida la existencia de un complejo “mundo
microbiano” formado por bacterias, protozoos y hongos. Sin embargo, el propio
Pasteur había sido incapaz de encontrar el microorganismo que producía una
enfermedad entonces mortal: la rabia.
Esto
llevó a pensar que ciertas patologías estaban causadas por entidades
infecciosas muy distintas a las caracterizadas hasta entonces, que parecían
mucho más simples que las bacterias y demasiado pequeñas para ser observadas
con el microscopio óptico. Se trataba de los virus, cuyos primeros
representantes fueron descubiertos a finales del siglo XIX: el virus del
mosaico del tabaco (que infecta a la planta Nicotiana tabacum, tan apreciada
por los fumadores), el virus de la fiebre aftosa (infeccioso para varias especies
de animales, entre ellas las vacas), y el virus de la fiebre amarilla (que fue
el primer virus patógeno humano descubierto). Una característica común que
tenían los virus caracterizados en esa época es que eran capaces de atravesar
un filtro con un tamaño de poro microscópico, denominado “filtro de
Chamberland”.
Por
tanto, el sistema de esterilización por filtración, que había sido efectivo
para las demás toxinas conocidas entonces (ya que quedaban retenidas por el
filtro) no valía con los virus. Con ello, se ponía de manifiesto una
característica fundamental de los virus: su tamaño es muy inferior al de las
bacterias, y muchísimo más pequeño que el de las células eucariotas. Era
imposible observar los virus utilizando la tecnología disponible, y por tanto
se estaba luchando contra un enemigo invisible.
Con
la aparición de la microscopía electrónica en la década de 1930 se pudo
comenzar a ver virus, y a estudiar su proceso de infección en las células.
Desde entonces se han realizado muchísimos estudios sobre los virus, y hoy
sabemos que son entidades muy pequeñas, de dimensiones nanométricas (entre 20 y
400 nm), con formas variadas: bastón, espiral, icosaedro, esfera.
Podemos
observar imágenes obtenidas por TEM de dos virus emergentes, el de la gripe
aviar (A) y el virus Ébola (B), una imagen SEM de dos bacteriófagos (C) y una
imagen SEM en la que gracias a un sistema de falso color se observa claramente
la diferencia de tamaño entre una bacteria y los bacteriófagos que la están
infectando
Durante
el último siglo se ha ido profundizando sobre los mecanismos que emplean los
virus para infectar a las células y parasitar o “secuestrar” parte de su
maquinaria para hacer copias de sí mismos.
Esto
ha llevado a plantear una pregunta muy interesante: ¿son los virus seres vivos?
A pesar de que en este capítulo se da una posible definición de “vida”, la
respuesta a si los virus son seres vivos no es nada fácil. De hecho, los
científicos no se ponen de acuerdo en este tema. Por un lado, los virus deberían considerarse
seres vivos porque hacen copias de sí mismos, es decir, se replican, y en su
descendencia los nuevos virus producidos son distintos entre sí, lo que les
permite evolucionar. El hecho de que los virus evolucionan resulta
evidente si pensamos en estos ejemplos:
Las
personas mayores han de vacunarse todos los años de la gripe (ya que el virus
de la gripe que infectó a la población el invierno pasado ha evolucionado y
este año es diferente); los enfermos de sida han de cambiar de tratamiento cada
ciertos meses (el virus de la inmunodeficiencia humana ha evolucionado y se ha
hecho resistente a los fármacos que tomaba el paciente); de vez en cuando
aparecen “virus nuevos”, también llamados “virus emergentes”, que pueden
producir enfermedades muy graves e incluso pandemias de dimensiones mundiales
(como es el caso de una de las cepas del virus de la gripe aviar, que está
mutando durante los últimos años e infecta a humanos en vez de a aves). Sin
embargo, el hecho de que los virus necesiten siempre células para replicarse,
es decir, que sean necesariamente parásitos porque no son capaces de replicarse
por sí mismos, hace que no puedan considerarse como seres vivos. Así que la
polémica está servida: ¿a qué se parece más un virus, a una bacteria o a un mineral?
Aunque
no respondamos a esa pregunta sí podemos investigar mucho sobre los componentes
de los virus. Poseen tres partes fundamentales:
1)
un genoma, que puede ser de ADN (el mismo ácido nucleico que forma el genoma de
todas las células) o de ARN (otro ácido nucleico de estructura diferente);
2)
una cápsula o “cápsida” de proteínas que protege al genoma;
3)
en algunos virus, una membrana “robada” a la última célula que han infectado.
Los virus cuyo genoma es de ARN (como el de la gripe, el Ébola, el del sida o
el de la hepatitis C) evolucionan más rápidamente que los que tienen genoma de
ADN (como el virus de la varicela, el papilomavirus, el herpes o el de la
hepatitis A).
La
vida (si es que eso es vida) de los virus es sencilla y a la vez frenética:
infectan una célula, se replican en ella, y salen (unas veces rompiendo la
célula infectada y otras no) para infectar otras células y continuar el ciclo
hasta que no queden más células disponibles. Los virus son nanomáquinas
replicativas que han ido apareciendo en la naturaleza y evolucionado en
paralelo a las células durante millones de años. Pueden producir diversas
enfermedades en los organismos a los que infectan, pero no siempre es así.
A
pesar de su mala fama, hay muchísimos más virus beneficiosos que perjudiciales,
y la mayor parte de los que nos infectan no nos causan enfermedades. Además,
por el simple hecho de saltar de unas células a otras (de la misma especie, e
incluso de especies distintas) los virus han ido modificando los genomas de los
organismos infectados y han influido directamente en su evolución.
Veamos
un ejemplo sorprendente. Cuando hace muy pocos años se ha secuenciado el genoma
humano se vio que casi la mitad de nuestra información genética proviene de
virus que se han ido integrando en nuestro ADN (mediante estrategias similares
a la que usa el virus del sida) a lo largo de la evolución. Es decir, los
humanos no seríamos como somos (o tal vez incluso no existiríamos) si no fuera
por los virus. ¿Curioso, verdad?
Además
los virus, o partes de ellos, también se han utilizado por su potencial para
fabricar vacunas y fármacos que nos permiten prevenir o curar las infecciones
producidas por esos mismos virus o por otros. Por ejemplo, cuando todos nosotros nacimos y teníamos
tan solo dos o tres días, nos pusieron la primera inyección de nuestra vida. ¿Y
qué nos inyectaron? Pues precisamente la primera dosis de la vacuna contra el
virus de la hepatitis B, obtenida a partir de un componente (de dimensiones
nanométricas) de la envuelta de ese virus, que de forma aislada no
produce infecciones pero servirá para que nuestro sistema inmune aprenda a
reconocer ese virus y prepare sus armas para destruirlo en el futuro si se lo
encuentra.
¡Pero estamos
hechos de nanocosas!
Como
hemos visto en el apartado anterior, los avances logrados en las técnicas de
microscopía óptica y electrónica nos han permitido observar células y virus de
distintos tipos, e incluso algunos de sus componentes. Sin embargo, siempre hay
un “más allá” al que no puede llegarse mediante las microscopías ópticas y
electrónicas convencionales, porque los componentes moleculares de los seres
vivos no están en el rango de tamaño de los micrómetros (μm) sino en el de los nanómetros
(nm).
Para estudiar este tipo de objetos se han
desarrollado algunas modificaciones experimentales de la microscopía
electrónica, y además se han ideado tecnologías totalmente diferentes que sí
permiten “ver” los nanocomponentes de los seres vivos. Entre estas técnicas
están la difracción de rayos X, la resonancia magnética nuclear, los nuevos tipos de microscopía
basados en efectos cuánticos y otros sorprendentes avances
experimentales, que se describen en el capítulo 2 de este libro.
¿Y
qué nos muestran todas estas técnicas sobre los secretos de la vida? En primer
lugar, que toda la vida es química (y los sueños, química son), y que los seres
vivos son, en su esencia, sistemas organizados de moléculas que se replican,
interaccionan con el ambiente y evolucionan. De hecho, de una forma muy parecida
es como el Instituto de
Astrobiología de la NASA (http://astrobiology.nasa.gov/nai) define el complicado término vida:
“sistema químico auto-replicativo, que evoluciona como consecuencia de su
interacción con el medio”. Somos química, y las moléculas que nos
constituyen tienen el tamaño de nanómetros. Los seres vivos estamos, por tanto,
hechos de “nanoobjetos”, pero estos están organizados cuentra.
Hay varios casos similares de vacunas
obtenidas por ingeniería genética a partir de una parte del virus, o de un
virus completo pero modificado para que no produzca enfermedades al ser
inyectado. Otra aplicación médica muy interesante de los virus es utilizarlos
precisamente como lo que son, nanomáquinas muy especializadas capaces de llegar
a células concretas y entrar en ellas.
Así,
por ejemplo, se están modificando virus para que dentro de ellos haya un
fármaco, de tal forma que el virus pueda inyectarse a un individuo enfermo (por
ejemplo, con cáncer), llegar al tejido tumoral, entrar en sus células y liberar
dentro de ellas su carga explosiva. El empleo de los virus como nanosubmarinos
terapéuticos está en fase de investigación, pero podría ser muy importante en
el futuro.
Para el desarrollo de alguna de las
aplicaciones clínicas de los virus sus propiedades mecánicas han de ser
modificadas de forma controlada. Esto se ha logrado recientemente empleando una
combinación de técnicas genéticas y de procedimientos nanotecnológicos, que
permiten alterar la rigidez y la forma de las cápsidas víricas.
Merece
mucho la pena investigar en las propiedades y potencialidades de estas
nanomáquinas que la evolución ha puesto en nuestras manos, ya que ningún
nanobombardero construido por el hombre podría ser tan eficiente (¡y barato!)
como un virus suficientemente “domesticado” y regulados de tal forma que somos
capaces de evolucionar. Porque no existe vida sin evolución, como ya C. Darwin
demostró hace un siglo y medio. Por cierto, si te preguntas cómo empezó la vida
(muchos nos lo
preguntamos),
el siguiente cuadro te puede interesar.
Origen de la vida, biología
sintética y nanotecnología
El
origen de la vida es uno de los temas de investigación más fascinantes que
podemos plantearnos, y engloba muchas preguntas difíciles: cuándo y cómo
ocurrió, si tuvo lugar en la Tierra o fuera de ella, si ese origen se produjo
una sola vez o varias, y si es o no probable que la vida haya comenzado en
otros lugares del universo además de en nuestro planeta.
Tenemos bastante información sobre la cuestión
del “cuándo”, y casi todos los especialistas están de acuerdo en que la vida se
originó en nuestro planeta hace aproximadamente 3.800 millones de años (es
decir, unos 700 millones de años después de que la Tierra se formara). Pero aún
hay mucho que investigar, sobre todo acerca del “cómo”, y para ello el
científico es una especie de Sherlock Holmes que intenta avanzar lento pero
seguro siguiendo dos tipos de pistas.
La
primera línea de investigación es la denominada “de arriba hacia abajo” o “de
hoy hacia el pasado”, porque se basa en la comparación de los genomas y
metabolismos de los organismos que existen en la actualidad, en busca de sus
características comunes. Lo común a todos los seres vivos es probablemente lo
más antiguo, y tal vez ya estaba presente en una especie celular de la que
derivaron todas las demás.
Por
supuesto, esa especie ya ha desaparecido y además no sabemos nada sobre ella,
pero la llamamos “progenote” o LUCA (siglas en inglés de “último ancestro común
universal”). Para investigar sobre cómo podía ser LUCA se están analizando las
bacterias que hoy en día tienen un genoma más pequeño, porque tal vez sean las
más parecidas a nuestro antepasado.
Además,
se realizan simulaciones teóricas en ordenador (de forma similar a como se
explica en el capítulo 7) en las que se definen los conjuntos mínimos de genes
que podrían ser suficientes para generar algo “vivo”. Y se investiga también en
los microorganismos denominados “extremófilos”, que viven en condiciones muy
alejadas de las que podríamos considerar normales: lugares con temperaturas de
más de 100ºC o menos de -20ºC, a cientos de atmósferas de presión, en aguas muy
ácidas o muy básicas, en ausencia de oxígeno, en presencia de sustancias
tóxicas o dosis muy altas de radiación…
Los
extremófilos tal vez guarden las claves sobre cómo pudo empezar la vida sobre nuestro
planeta, que al principio era muy distinto a lo que vemos ahora.
La
segunda línea de trabajo sobre el origen de la vida se denomina “de abajo hacia
arriba”, y consiste en intentar llegar a la vida desde una química que se va
haciendo cada vez más compleja.
El
primer experimento que se llevó a cabo para comprobar si se podía pasar de la
química a la biología fue muy famoso, y más de medio siglo después sigue
apareciendo en todos los libros de texto. Lo ideó y realizó S. L. Miller en el
laboratorio de H. C. Urey en 1953, y con él inauguró una disciplina científica
que desde entonces se conoce como “química prebiótica”. ¿En qué consistió ese
experimento? Miller diseñó un sistema cerrado de matraces y tubos de vidrio, en
el que mezcló los gases que entonces se pensaba que habían estado presentes en
la atmósfera terrestre primitiva, hace unos 4.000 millones de años: metano,
amoníaco, hidrógeno y vapor de agua. Sometió la mezcla gaseosa a descargas
eléctricas muy intensas, para simular toda la energía que llegaba a nuestro
planeta en aquella época a través del vulcanismo, tormentas e impactos de
grandes meteoritos.
Y
lo que ocurrió, al cabo de unos días de descargas, es que en el matraz de
reacción se había formado una sustancia marrón que cubría sus paredes internas.
Cuando Miller analizó esa materia formada descubrió que en ella había bastantes
moléculas pequeñas de las que están presentes en los seres vivos, entre ellas
muchos de los aminoácidos que forman las proteínas.
¿Curioso,
verdad? Con ello se demostraba que es posible obtener, a partir de compuestos
inorgánicos muy sencillos como esos cuatro gases, y sin intervención de
procesos biológicos, los monómeros o moléculas básicas de la vida. Esta primera
etapa del origen de la vida pudo haber ocurrido tanto en la Tierra como fuera
de ella, así que tal vez haya formas de vida en otros planetas y satélites.
Por
eso, hoy los científicos que trabajan en una disciplina denominada
Astrobiología buscan vida en Marte, en Venus, en Europa (satélite de Júpiter),
en Titán (satélite de Saturno)... o incluso en otros lugares fuera de nuestro
Sistema Solar.
Como
combinación de estas dos líneas de investigación sobre el origen de la vida, se
ha hecho fundamental estudiar cómo se originaron las moléculas principales de
los seres vivos (el ADN, el ARN y las proteínas) y cómo empezó la evolución de
la información genética que en última instancia daría lugar a toda la
biodiversidad actual.
Los avances en nanotecnología nos están
permitiendo realizar reacciones moleculares en condiciones muy controladas,
tanto en disolución como sobre superficies sólidas, y de esa forma se intenta
saber lo que pudo ocurrir en el origen de la vida. Por ejemplo, es posible
lograr en el laboratorio la unión controlada de aminoácidos para formar una
proteína, o de nucleótidos para sintetizar una cadena de ARN, y con ello
plantear si algo parecido a estos “autoensamblajes moleculares” pudo ocurrir en
el origen de la vida, tal vez sobre la superficie mineral del fondo de los
mares.
De
hecho, visto desde el campo de la nanotecnología, el origen de la vida no es
nada más (¡ni nada menos!) que la aparición de nanomáquinas moleculares capaces
de replicarse a sí mismas...
Lógicamente,
dado que los científicos son gente con una gran curiosidad, si se llega a
determinar con precisión cuál es el número de moléculas necesarias para que
exista un organismo vivo que se replica, y si se sabe cómo sintetizarlas a
partir de materia inorgánica... el siguiente paso será intentar “fabricar” ese
ser vivo.
Como
veíamos en el capítulo 1 del libro, esto suena a una nueva edición de
Frankenstein, que es ahora mucho más realista que en la obra que Mary Shelley
publicó en 1818. Nuestro nuevo Frankenstein, gracias a todo lo que hemos
avanzado en el conocimiento molecular de los seres vivos y a la posibilidad de
manipular la materia a nivel nanométrico, tiene nuevos recursos para lograr sus
objetivos.
A
este campo de trabajo, que va en busca de la construcción de seres vivos
sencillos en el laboratorio, se le conoce como “vida sintética” o “biología
sintética”. Es un tema controvertido dentro y fuera de la ciencia, pero está
siendo ya explorado por muchos investigadores.
Por
ejemplo, el grupo de C. Venter en el Instituto Craig Venter (Maryland, USA) ha
logrado “ensamblar” el genoma de un virus y de la bacteria Micoplasma
genitalium a partir de sus “piezas”, previamente sintetizadas en un
laboratorio.
Otros investigadores como D. Endy en el M.I.T.
(Massachussets, USA) construyen “nanocircuitos” que en lugar de componentes
electrónicos poseen genes capaces de originar algunas de las reacciones
metabólicas que sustentan a los seres vivos, mientras que otros como S.
Rasmussen en el Laboratorio de Los Álamos (New Mexico, USA) y J.W. Szostak en
el Instituto Howard Hughes de Boston (Massachussets, USA) ensamblan agregados
moleculares con el objetivo de que lleguen a funcionar como células
artificiales.
Un zoom sobre un ser vivo: de
lo macro a lo nano sin salir de la charca
Imagina
un hipopótamo que vive feliz en una charca de la región de Seronera, en el
Parque Nacional del Serengeti, en Tanzania. Este animalito, al que los griegos
llamaron “caballo de río”, cuyo nombre científico es Hippopotamus amphibius y
que en el idioma de su tierra (el swahili) se llama kiboko, pesa entre 2 y 4
toneladas y mide casi 5 metros de largo.
Es,
por lo tanto, un ser vivo imponente, para cuya observación no hace falta ningún
tipo de tecnología que nos amplifique. Centrémonos en su gran cabeza cuadrada,
de unos 200 Kg de peso. En ella hay dos ojos relativamente pequeños, que nos
observan sobre el agua como el periscopio de un gran submarino.
Este
órgano, el ojo, tiene pocos centímetros de diámetro, y en él hay diversas
partes implicadas en el proceso de la visión. Una de las principales es la
retina, que es la más interna de las tres capas del globo ocular y constituye
el tejido fotorreceptor. Una de las estructuras de la retina es la llamada
“mácula lutea”, con sólo unos milímetros de diámetro (no nos vendría mal una
lupa para observarla) y en ella existen, entre otros tipos de células, unas
llamadas “bastones”.
Los
bastones de la retina de nuestro hipopótamo no son más que un tipo de neuronas,
especializadas en captar la luz a niveles bajos de iluminación y responsables
de la visión en blanco y negro. Con un microscopio óptico comprobaríamos que su
tamaño es de 2 μm de ancho y unos 10 μm de largo. Si tenemos además un
microscopio electrónico observaremos que en el interior de los bastones se encuentra
el núcleo de la neurona, y en él, multitud de mitocondrias de algo menos de 1
μm de longitud, otros orgánulos y, en la parte que apunta hacia el globo
ocular, numerosos discos membranosos apilados.
Si continuamos el zoom llegaremos al
nanomundo: en el citoplasma de esas células trabajan millones de ribosomas, que
son agregados de proteínas y ARN con un tamaño de unos 30 nm, así como otros
complejos proteicos de tamaño algo menor. En esas dimensiones la microscopía
electrónica empieza a ser insuficiente.
Pero
vayamos aún más abajo porque sabemos que existen tecnologías con las que es
posible hacerlo. En las membranas que forman los discos de los bastones se
encuentra la proteína fotorreceptora que le permite ver al hipopótamo: la
rodopsina. Está formada por una parte proteica denominada opsina y otra no
proteica que es un derivado fotosensible de la vitamina A, llamado
11-cis-retinal.
La opsina es una cadena lineal de unos
350 aminoácidos, que se pliega sobre sí misma y atraviesa siete veces la membrana
de 6 nm de grosor
que forma el disco. El tamaño de la opsina insertada en la membrana es de unos
20x20 nm2, y cada uno de
sus aminoácidos tiene un tamaño aproximado de entre 0,5 y 1 nm. Ya hemos
llegado al nanómetro.
Pero
aún hay más (o menos, según se mire): si nos centramos en uno de los
aminoácidos de la opsina, por ejemplo la lisina a la que está unido el 11-cis-retinal (G), observamos
que está formado por sólo 24 átomos: 6 de carbono, 2 de nitrógeno, 2 de oxígeno
y 14 de hidrógeno. El tamaño de cada uno de estos átomos es de aproximadamente
0,1 nm.
Es decir, en unas pocas líneas hemos pasado de
los 5 m del hipopótamo a los 10-10 m de cada uno de los átomos que lo forman. Y
en el camino hemos aprendido que si nos está observando desde su charca es
porque posee nanoestructuras muy especializadas y organizadas en las células de
su retina.
Ése
es sólo un ejemplo, pero algo general que se aprende al hacer ese zoom es que
todos los seres vivos funcionamos gracias a nuestra organización celular y molecular.
Es decir, a lo que ocurre en nuestro micromundo y nuestro nanomundo.
Las moléculas de la vida poseen unas
dimensiones comprendidas entre menos de 1 nm (las más sencillas,
denominadas “sillares estructurales” como aminoácidos, nucleótidos o metabolitos)
y los aproximadamente 100 nm de los agregados macromoleculares más grandes,
pasando por los 2 nm de
diámetro de la doble hélice del ADN que contiene nuestra información
genética.
Todos
los seres vivos, desde las bacterias más pequeñas hasta los animales y plantas
más voluminosos, existen y evolucionan gracias a sus nanoestructuras
biológicas. Y esto nos permite dar un paso más: podemos mejorar mucho la
medicina actual gracias al conocimiento de nuestro nanomundo.
Manipulando nano-bio-objetos
En
la actualidad no sólo se conoce cada vez mejor el nanobiomundo, sino que
incluso es posible manejar biomoléculas de una en una para entender cómo
funcionan o para moverlas individualmente de un lugar a otro utilizando
diferentes estrategias. Esta aproximación resulta radicalmente diferente a la
forma de investigar que la biología molecular y la biotecnología han seguido
hasta hace pocos años.
En
efecto, lo habitual había sido trabajar de manera global con todas las
moléculas presentes en una muestra compleja (un fluido biológico o una muestra
natural) o pura (una muestra purificada o una preparación de laboratorio de un
único tipo de moléculas), lo que en todos los casos suponía el manejo
simultáneo de muchos billones de moléculas (diferentes o iguales) y por lo
tanto el estudio del comportamiento promedio de las mismas.
Ahora,
gracias a los avances de la nanociencia, ya es posible tomar una única molécula
aislada (por ejemplo, una proteína, una cadena corta de ADN o un lípido) o un
solo agregado molecular (por ejemplo un ribosoma, un cromosoma o un virus) y
trabajar con ellos para estudiar su respuesta individual frente a diversos
estímulos. Esto resulta especialmente interesante en el caso de la manipulación
de moléculas de ADN.
El ADN como nanobiopolímero
La
capacidad que nos ofrece la nanotecnología para manipular biomoléculas
individuales está permitiendo construir diferentes nanoestructuras utilizando
proteínas, lípidos, azúcares y ácidos nucleicos. Entre las aproximaciones
tecnológicas actuales, resulta especialmente interesante el uso del ADN como
“material de construcción” de nanoestructuras funcionales.
El
ADN (abreviatura de ácido desoxirribonucleico, que también se puede escribir
como DNA) es la molécula en la que se almacena nuestra información genética, y
también la de todos los demás seres vivos celulares y de una parte de los
virus. Desde el punto de vista estructural, el ADN es una molécula polimérica formada por monómeros
denominados nucleótidos (en concreto, desoxirribonucleótidos).
Cada nucleótido consta de un azúcar
llamado desoxirribosa, un grupo fosfato, y una base nitrogenada
(también denominada base nucleotídica, o simplemente “base”) que puede ser de
cuatro tipos: adenina (A), guanina (G), citosina (C) y timina (T). La secuencia de bases del ADN
(por ejemplo, AGCTCAGTGCCGATTACA...) constituye la información genética almacenada en la molécula, y la totalidad de esas “letras”
forma el genoma de un organismo. Así, por ejemplo, el genoma del virus
de la hepatitis B tiene 3.200 nucleótidos, el de la bacteria Escherichia coli
unos 4.600.000 y el de
Homo sapiens es un texto con aproximadamente 3.300.000.000 “letras”.
Durante los últimos 20 años se ha
“secuenciado” (es decir, se ha leído ese largo mensaje genético escrito con
sólo cuatro letras) los genomas de cientos de seres vivos, y el de nuestra
especie se completó casi en su totalidad en el año 2001.
El
ADN tiene estructura de doble hélice formada por dos cadenas de nucleótidos
cuyas bases nitrogenadas interaccionan entre sí y están orientadas hacia el eje
de la doble hélice. La interacción que se establece entre las bases de una y
otra cadena es electrostática, de tipo puente de hidrógeno, y obedece a la
complementariedad A-T (cuando hay una A en una cadena, en la otra hay una T) y
G-C (una G en una cadena implica una C en la otra).
En su conformación más habitual, el diámetro
de la doble hélice del ADN es de 2 nm, y la distancia entre dos bases
consecutivas (es decir, la altura de cada peldaño de esa nanoescalera de
caracol) es de 0,34 nm.
En cada vuelta
completa de la doble hélice hay exactamente 10 nucleótidos, por lo que su “paso de rosca” es de 3,4 nm.
El
descubrimiento de la estructura y dimensiones del ADN se basó en los datos de
difracción de rayos X obtenidos por R. Franklin y M. Wilkins, y en las
equivalencias de bases observadas por E. Chargaff. A partir de esos datos
experimentales, el modelo de doble hélice fue postulado por J. Watson y F.
Crick en 1953, por lo que fueron ambos quienes se hicieron famosos. Ese año,
que también pasó a la historia por el primer experimento de química prebiótica
realizado por S.L. Miller y por la primera secuenciación de proteínas llevada a
cabo por F. Sanger, se considera el punto de partida de la biología molecular.
Dadas
sus dimensiones, el ADN es
un auténtico nanobiopolímero con el cual es posible diseñar y construir
nanoestructuras artificiales con diferentes aplicaciones. Para ello es
especialmente útil el hecho de que las cadenas complementarias se unan o
“hibriden” entre sí, ya que de esa forma se puede sintetizar una cadena de ADN
con la secuencia que se desee (algo que resulta muy sencillo con la tecnología
actual) y con capacidad para hibridarse específicamente en una zona predefinida
de la hebra complementaria.
De
esta forma, los nanobiotecnólogos pueden ensamblar cadenas de ADN parcialmente
complementarias entre sí, y con ello construir las bioestructuras que más les
interesen. Así, por ejemplo, se han obtenido estructuras ramificadas de ADN con
las cuales se aumenta mucho la capacidad de detección de secuencias concretas
en una muestra natural.
El
ADN ramificado se utiliza en diversos tipos de biosensores usados en medicina,
entre los cuales se encuentran los sistemas más sensibles para detectar y
cuantificar la presencia del virus del sida en la sangre de los pacientes
infectados. Otros investigadores han ideado métodos para fabricar estructuras
tridimensionales más o menos complejas con cadenas de ADN, entre ellas
poliedros regulares como tetraedros o cubos que se autoensamblan a partir de
una disposición plana. Estos nanopoliedros de ADN pueden incluir otras moléculas en su
interior, por lo que poseen numerosas aplicaciones biomédicas y tecnológicas
que están empezando a explorarse en la actualidad.
Por
otra parte, se conoce bien cómo unir el ADN a otras biomoléculas como
proteínas, y también se ha logrado combinar ADN con nanomateriales artificiales
como nanotubos de carbono, fullerenos, dendrímeros o nanopartículas. Así, al
hibridar dos cadenas complementarias.
Uno
de los métodos más prometedores para manipular moléculas biológicas
individuales consiste en la funcionalización previa de la biomolécula con otro
tipo de molécula o con una nanoestructura (por ejemplo, un nanotubo de carbono
o una nanopartícula).
Así,
por ejemplo, si se une una nanopartícula a una proteína o a una cadena de ADN
(generalmente a través de otra pequeña molécula que actúa como “puente”), el
mayor tamaño y estabilidad de la nanopartícula permite manipular mucho más
fácilmente la biomolécula en cuestión dentro de la disolución que la contiene.
La
forma más desarrollada para manipular y mover biomoléculas individuales
funcionalizadas se basa en el uso de un instrumento denominado “pinzas ópticas”
(también conocido como “trampa óptica”), puesto a punto por A. Ashkin en 1970.
Las pinzas ópticas consisten en el empleo de
un rayo láser muy focalizado para atrapar y mover partículas dieléctricas (es
decir, no conductoras de la electricidad) sin necesidad de “tocarlas”
físicamente (a los aficionados a la ciencia-ficción, esto les recordará el rayo
transportador de Star Trek).
Las pinzas de ADN una de ellas puede estar
unida a una proteína, un nanocomplejo orgánico o una nanopartícula metálica. De
esta forma, por ejemplo, si hibridamos una hebra de ADN inmovilizada sobre una
superficie a otra cadena complementaria que lleve unido en su extremo un
nanotubo de carbono... lo que logramos es guiar el nanotubo hasta el punto
concreto de dicha superficie en el que estaba la primera hebra de ADN.
Recordemos
que en el capítulo 3 se decía que uno de los principales problemas para el
desarrollo tecnológico de los nanotubos es la dificultad para posicionarlos de
manera controlada: el uso de ADN como “transportador” puede ser la solución.
Por otra parte, la funcionalización de ADN con otras biomoléculas o con
nanoestructuras artificiales permite promover o aumentar la capacidad de los
ácidos nucleicos para formar monocapas autoensambladas sobre diferentes
materiales.
Esta
estrategia permite el desarrollo “capa a capa” de nuevos tipos de biosensores
ultrasensibles. Para terminar, y como un ejemplo de la interdisciplinaridad de
la nanociencia, puede indicarse que muchos investigadores se preguntan
actualmente si además de las capacidades que presenta el ADN para almacenar
información y para reconocer específicamente moléculas complementarias, la molécula de ADN podría ser
utilizada como un conductor eléctrico.
Como
veremos en el capítulo 6, la cuestión de la conductividad del ADN no es
trivial.
Experimentos
de AFM con una punta conductora han mostrado que la hebra sencilla no conduce, mientras que la doble hélice sí
lo hace. Sin embargo, otros investigadores cuestionan estos resultados y
proponen que el ADN no conduce la electricidad en ningún caso.
A
esta discrepancia se une el hecho de que los cálculos teóricos (ver capítulo 9)
realizados en paralelo son también contradictorios. Por tanto, a día de hoy, saber si podremos tener
nanocables de ADN por los que pueda transportarse la corriente eléctrica es un
tema abierto en nanociencia.
Las
pinzas ópticas son instrumentos muy sensibles, capaces de manipular y detectar
desplazamientos y rotaciones subnanométricos en objetos de tamaño comprendido
entre aproximadamente 100 nm y 10 μm (es
decir, un rango que incluye desde nanopartículas y agregados moleculares hasta
orgánulos celulares y células completas).
Por
ello, esta técnica resulta muy adecuada para atrapar y mover, por ejemplo, una
nanopartícula que se ha unido a la biomolécula individual de interés. Esto permite
la investigación de un gran número de procesos bioquímicos y biofísicos, desde
las propiedades mecánicas de los biopolímeros hasta el funcionamiento de las
diferentes nanomáquinas y nanomotores moleculares que trabajan en el interior
de las células.
Por
ello, las pinzas ópticas están llamadas a protagonizar muchos desarrollos
tecnológicos del siglo XXI.
La
manipulación de ácidos nucleicos y proteínas funcionalizadas con nanopartículas
ha sido especialmente desarrollada por el grupo de C. Bustamante en la
Universidad de Berkeley, utilizando la técnica de pinzas ópticas. También se ha
empleado una variante de la tecnología de AFM (ver capítulo 2) en la cual la
punta del AFM se une (directamente o a través de otra molécula que actúa como
puente) a uno de los extremos de la biomolécula bajo estudio.
De esta forma se logra “pescar” proteínas o
ácidos nucleicos como si usáramos una microcaña (la micropalanca de AFM)
provista de un nanoanzuelo (la punta reactiva),
a continuación se mide la fuerza con la que debemos tirar. Mediante
estos procedimientos se ha logrado, por ejemplo, hibridar y des-hibridar de
manera controlada hebras de ADN complementarias.
Además
se ha podido estirar, comprimir, doblar, desenrollar o “superenrollar” (es
decir, enrollar aún más) cadenas sencillas o dobles de ADN y de ARN. La medida
de la fuerza requerida para cada proceso nos informa sobre la elasticidad de
los ácidos nucleicos y sobre el tipo de enlaces que mantienen su nanoestructura
funcional.
Estas
técnicas también se han utilizado con éxito en el estudio del plegamiento de
determinadas proteínas hasta llegar a su forma biológicamente activa y en la
cuantificación de la fuerza necesaria para desplegar los distintos dominios
estructurales en que se organizan las proteínas. No cabe duda: la
nanotecnología está revolucionando el modo de analizar las características
biofísicas de los polímeros
que
constituyen la vida.
¡ADN
sin burbujas para celebrar la infección!
Una
situación más complicada se produce al final del proceso infectivo del virus,
cuando Phi29 debe empaquetar su genoma en la cápsida antes de salir de la
célula
y
estar listo para infectar a la siguiente. Para ello es necesario que, desde el
propio virus, algún tipo de motor “tire” del ADN y lo empuje dentro de la
cápsida.
Dicho
bionano- motor existe, se localiza en el cuello o conector del virus, y se ha
caracterizado a nivel molecular: está formado por una serie de proteínas y
moléculas de ARN que cambian coordinadamente su forma para realizar una fuerza
o “torque” que se traduce en un esfuerzo de tracción sobre el ADN viral. De
hecho, el motor situado en el conector de los bacteriófagos es uno de los más
potentes que pueden existir. Para saber cómo funciona, C.
Bustamante y su grupo de investigación en la
Universidad de Berkeley (California, USA), lograron unir el ADN del virus a una
nanoparticula, la cual podían sujetar mediante pinzas ópticas. El nanomotor del
virus tiraba de un extremo de la molécula de ADN para introducirlo en su
cápsida, y a la vez los investigadores tiraban de la nanopartícula unida al
otro extremo. En expresión del propio Bustamante, era “como tirar de la cola de
un gato que quería escaparse”.
O, dicho de otra forma, en el laboratorio se
estaba jugando al “soga-tira”... ¡pero en versión nano! ¿Y al final quién ganó,
el virus o los científicos? Vencieron los investigadores, pero para ello
necesitaron aplicar una fuerza mayor de los aproximadamente 70 picoNewtons que
realiza el motor del virus. Puede parecer poco, pero esa es una fuerza inmensa:
si escaláramos ese nanomotor a las dimensiones habituales en los motores de las
máquinas “humanas” o de nuestros coches, sería capaz de arrastrar 6 aviones de
carga. Impresionante, ¿verdad?
Hacia
la nanomedicina
Gracias
a los avances experimentales descritos hasta este punto, la nanomedicina
(también llamada nanobiomedicina) está dejando de ser ciencia-ficción para
convertirse en una realidad esperanzadora.
La
nanomedicina consiste básicamente en utilizar el conocimiento molecular de los
seres vivos y la posibilidad de fabricar dispositivos de dimensiones
nanométricas para mejorar la salud humana, tanto en el ámbito de la terapia
(diseño y liberación de fármacos, construcción de nanomateriales
biocompatibles, medicina regenerativa, mejora de técnicas terapéuticas) como en
el del diagnóstico (incremento de sensibilidad y especificidad de técnicas
convencionales, fabricación de nanobiosensores).
Uno
de los campos más prometedores de la medicina en el siglo que estamos
comenzando es la denominada “nanomedicina regenerativa”, que consiste en el
desarrollo de tejidos mixtos entre moléculas biológicas y materiales
inorgánicos nanoestructurados.
Esto está resultando muy útil para la
construcción de prótesis e implantes sin problemas de rechazo, para organizar
la matriz extracelular de los tejidos y para dirigir la proliferación y
diferenciación celular.
Como
ejemplo, se están utilizando superficies provistas de nanoestructuras de
adhesión para hacer crecer sobre ellas monocapas de células y tejidos
concretos, que luego se pueden trasplantar a los pacientes. También se han
desarrollado nanofibras artificiales de péptidos, que poseen un diámetro de
unos 7 nm y son capaces de autoensamblarse y solidificar la solución en la que
estaban disueltos, lo que permite reconstruir tejidos humanos dañados.
Otros
investigadores trabajan sobre nanopolímeros que se pueden emplear para recubrir
dispositivos artificiales que van a estar en contacto con la sangre (como
válvulas cardíacas o catéteres), de forma que se impida o dificulte la
formación de coágulos. Estos y otros avances hacen albergar muchas esperanzas
sobre el papel de la nanotecnología en la medicina regenerativa.
Otra
de las líneas de investigación en nanomedicina se basa en que al poder
manipular las moléculas biológicas ha sido posible construir
“nanointerruptores” con los que se logra, por ejemplo, activar o desactivar un
determinado gen, una cascada de regulación génica, o todos los genes que
producen las proteínas implicadas en una ruta metabólica. Ello podrá servir, en
el futuro, para ralentizar o anular procesos celulares asociados con
enfermedades.
Nanosubmarinos
y nanorobots en nuestro cuerpo
Una
de las aplicaciones más prometedoras de la nanotecnología en medicina consiste
en el diseño de dispositivos de tamaño menor que las propias células de nuestro
cuerpo, capaces de dirigirse con precisión a un tejido enfermo y liberar en él
los fármacos necesarios para sanarlo.
Con
ello se logra aumentar la estabilidad, solubilidad y biodisponibilidad del
fármaco, y además disminuir los efectos secundarios que produciría en otros
tejidos. Esto es ya una realidad, y las empresas farmacéuticas lo saben bien: actualmente se comercializan más
de 150 fármacos en forma nanoestructurada, empleando diversos tipos de
“nanovehículos” o “nanosubmarinos” para su administración por vía oral,
intravenosa, inhalada o tópica. Entre las estrategias utilizadas, algunos
investigadores han construido vesículas artificiales o liposomas, que son una
especie de “mini-células” de entre 20 y 100 nm de diámetro, que no tienen
núcleo ni ningún otro orgánulo celular, sino únicamente una membrana lipídica
y un líquido en su interior en el que está disuelto el fármaco que se quiere
liberar en la célula enferma.
En
la membrana de esa vesícula se puede haber insertado previamente proteínas de
reconocimiento que la dirijan hacia su célula diana. Esto también se puede lograr (como se indica en
el primer cuadro específico de este capítulo) empleando un virus modificado, al
que se ha extraído o inactivado el genoma para que no sea infeccioso y sirva
únicamente como un vehículo de transporte especializado. Cuando la vesícula o el virus modificado
llegan a la célula, sus membranas se fusionan y la carga explosiva se libera en
el interior celular.
Como
siempre ocurre en ciencia, es más fácil decir esto que hacerlo, pero ya existen
ejemplos en los que la liberación controlada de fármacos ha funcionado muy
bien. También se está investigando sobre la posibilidad de encapsular las
moléculas activas en el interior de fullerenos o de hacerlas migrar a lo largo
de nanotubos de carbono (descritos ambos en el capítulo 3).
Otra
línea de investigación muy importante en este campo consiste en la fabricación
de bio-dendrímeros o de bio-nanopartículas. Como se indica en el capítulo 4,
los dendrímeros son nanoagregados esféricos formados por capas concéntricas de
un polímero orgánico, mientras que las nanopartículas están compuestas por
metales u óxidos metálicos, en ocasiones recubiertas por capas exteriores de
distintos materiales.
Las nanopartículas de mayor aplicabilidad en
biomedicina están fabricadas con metales nobles (oro, plata o sus aleaciones),
ya que son los más inertes en el organismo y por lo tanto en principio no
producen problemas de toxicidad al estar en contacto con nuestro cuerpo. En la
superficie de los dendrímeros o de las nanopartículas se puede insertar
distintos tipos de biomoléculas (por ejemplo anticuerpos o cadenas cortas de
ADN) que sirvan para detectar un tipo de célula humana concreta o para unirse a
un microorganismo patógeno.
Si nos interesa, también podemos unir a la
superficie (o integrar dentro de la estructura del dendrímero o de la nanopartícula)
el fármaco que queremos llevar a un lugar concreto.
En
ocasiones, las partículas tienen un núcleo de un material diferente, que las
dota de unas características adicionales de interés. Por ejemplo, existen nanopartículas con un
núcleo magnético (de óxido de hierro u otros metales) que las convierte en
auténticos “nanoimanes” recubiertos por biomoléculas.
Esos
nanobioimanes son capaces de viajar por el organismo sin más que aplicar un
campo magnético desde el exterior. ¿Un médico moviendo un imán por nuestro
cuerpo hasta llegar a la zona enferma en la que tiene que actuar el
nanosubmarino que circula por nuestras venas? Sí, algo tan espectacular, será
pronto posible.
Una
vez han llegado al lugar deseado del cuerpo, esas nanopartículas podrán servir
también para aumentar enormemente el contraste de las pruebas diagnósticas
basadas en resonancia magnética nuclear y con ello, por ejemplo, detectar los
tumores en etapas muy tempranas de formación. Además, las nanopartículas
metálicas permitirán destruir tejidos cancerosos o infectados mediante procesos
de “ablación térmica”: se las hace vibrar a mucha velocidad mediante fuerzas
electromagnéticas, lo que produce un elevado aumento de la temperatura muy
localizado en la zona del organismo a la que se había llevado las partículas.
Estamos
hablando de conceptos muy novedosos: medicina personalizada y focalizada a
puntos concretos del cuerpo. No obstante, hemos de ser muy cautos con estas
nuevas herramientas de la nanomedicina, que hasta el momento se han
desarrollado en cultivos celulares y animales de laboratorio.
Como
requisito imprescindible antes de dar el “salto” a la clínica, en la actualidad
se está investigando (mediante ensayos clínicos muy controlados en humanos)
sobre la toxicidad que las nanopartículas y otros nanocompuestos podrían
generar en nuestro organismo, su estabilidad en distintos fluidos, las
reacciones que desencadenan en nuestro sistema inmune, y los efectos
secundarios producidos a distintas dosis (ver cuadro de eco-toxicologia en
capítulo 9).
R.
A. Freitas (uno de los padres de la nanomedicina), junto con su grupo en el
Instituto de Fabricación Molecular de California, ha desarrollado una especie
de glóbulo rojo artificial
denominado “respirocito”. Este nanorobot posee un diámetro de 1 μm y
tiene la capacidad de almacenar y liberar hasta 236 veces más oxígeno que un
glóbulo rojo natural. Los respirocitos llevan incorporados sensores químicos y
de presión, y los médicos podrían manipularlos, activarlos o desactivarlos
empleando ultrasonidos. Según el creador de estos nanorobots, una inyección de
respirocitos nos permitiría bucear “a pulmón” durante dos horas y media... e
incluso vivir con el corazón parado durante 4 horas. Veremos si en el futuro algo
tan sorprendente es posible.
En
cualquier caso, Freitas y su grupo no se han quedado ahí, sino que proponen la
posibilidad de fabricar otros nanorobots, entre ellos los denominados
“microbívoros”: una especie de fagocitos artificiales capaces en teoría de
destruir cualquier microorganismo de nuestro torrente sanguíneo, mil veces más
eficientemente que las células de nuestro sistema inmune.
Es
muy improbable que esto llegue a hacerse realidad en la práctica, ya que
nuestro sistema inmune (como todos los componentes de los seres vivos) es el
resultado de más de 3.500 millones de años de evolución biológica y de un
minucioso proceso de optimización de su sensibilidad y especificidad, llevado a
cabo gracias a la selección natural.
La
bionanotecnología está avanzando muchísimo en la construcción de
nanodispositivos que imitan o mejoran ciertas capacidades de los seres vivos,
pero la robustez, adaptabilidad y versatilidad de los sistemas biológicos
complejos (en este caso, el sistema inmune) es por el momento inalcanzable para
los nanotecnólogos. No obstante, como se muestra en el capítulo 8, la
imaginación es la principal aliada de la investigación, y el futuro aún no está
escrito...
El
fabuloso mundo de los nanobiosensores
Los
biosensores son dispositivos de análisis que nos permiten detectar
específicamente una sustancia. Así por ejemplo podemos utilizarlos para
analizar la composición o características moleculares de los seres vivos, o
detectar si un determinado microorganismo está presente en un ambiente. Sus
partes principales son una zona sensora o reactiva, formada por un elemento de
reconocimiento biológico (ácido nucleico, anticuerpo, enzima...) capaz de
unirse específicamente a la sustancia que se quiere detectar.
Éste está acoplado a un sistema transductor
que permite procesar la señal (óptica, eléctrica, mecánica o de otro tipo)
producida por la interacción entre el elemento de reconocimiento y la sustancia
buscada. La unión de estos dos mundos opuestos, el vivo y el inerte, es lo que
confiere a los biosensores sus características especiales de selectividad y
sensibilidad.
Existen
muchísimos tipos de biosensores diferentes, y sus aplicaciones actuales son ya
numerosas en los campos de la biotecnología, la salud, el medio ambiente y la
alimentación.
Uno
de los tipos de biosensores más utilizados en la actualidad son los denominados
“microarrays” o “biochips”. Se construyen depositando cientos o miles de
biomoléculas (generalmente proteínas o cadenas cortas de ADN) sobre una
superficie sólida (por ejemplo de vidrio, silicio u oro), en posiciones y
concentraciones conocidas.
Cada
punto está separado de sus vecinos por unos 100 o 150 μm. La muestra problema que se
quiere analizar se marca con un reactivo fluorescente, de forma que cuando se
ponga en contacto con el biochip quedará unida a unas de las moléculas sensoras
y no a otras, y producirá una señal fluorescente en esos puntos.
Las
aplicaciones de los biochips son numerosas en la actualidad: determinación de
la biodiversidad microbiana presente en un ambiente concreto, detección de
bacterias contaminantes en el agua o en un alimento, descubrimiento de
mutaciones en una bacteria o un virus que les hacen resistentes a los fármacos
que toma un paciente infectado, análisis de nuestra mayor o menor propensión a
padecer cáncer y un largo
etcétera.
A
pesar de la gran utilidad actual de los microarrays, la ciencia sigue avanzando
y ya se están desarrollando otros biosensores, aún más pequeños y potentes. Se
basan, una vez más, en las nuevas posibilidades que la nanotecnología pone en
nuestras manos, y que por ejemplo nos permiten separar las moléculas sensoras
no unos cientos de micrómetros sino sólo unos pocos nanómetros. Por ejemplo, se
dispone ya de “nanoarrays” de proteínas o de ADN formados por puntos de 100 nm
de diámetro,
y
se han desarrollado sensores formados incluso por moléculas individuales unidas
a una superficie.
Así,
todo el proceso de detección puede hacerse en mucho menos espacio, y es posible
realizar el análisis partiendo de cantidades muy pequeñas de muestra. Por otra
parte, los nanoarrays permiten utilizar técnicas de detección distintas a la
fluorescencia, y algunos de ellos ni siquiera requieren marcaje alguno de la
muestra que se va a analizar.
Esto
resulta muy importante, porque se ha comprobado que si no es preciso marcar ni
modificar previamente la muestra, la sensibilidad de detección mejora
considerablemente. Con todo ello, una de las ideas actuales es poder
desarrollar un nanochip provisto de miles de puntos sensores que pudiera ser
integrado en nuestro organismo y analizar en tiempo real los componentes de
nuestra sangre sin necesidad de requerir extracciones de sangre.
Además
de los nanoarrays, la llegada de la nanotecnología al mundo de los biosensores
ha permitido construir sistemas analíticos totalmente diferentes a los
conocidos hasta hace una década. Así, por ejemplo, se ha desarrollado un
aparato basado en nanohilos de silicio capaz de detectar y caracterizar virus
concretos mediante los cambios en conductividad eléctrica que estos producen al
unirse a un nanocable sumergido en una muestra líquida natural (agua, saliva,
sangre…). Otra línea de investigación consiste en unir los receptores olfativos
(proteínas quimiosensoras de dimensiones nanométricas) de nuestra pituitaria a
un dispositivo electrónico, de forma que se obtenga un sensor capaz de “oler”
artificialmente.
Dichos
nanosensores olfativos artificiales, también llamados “narices electrónicas”
poseen aplicaciones clínicas (para implantarlos en personas con el sentido del
olfato atrofiado o alterado) y también industriales (por ejemplo, para detectar
la presencia de una sustancia tóxica en el aire, para analizar perfumes de
manera sistemática, o para oler vinos sin la subjetividad del catador).
Con
todo ello, los avances actuales están permitiendo fabricar auténticos
“laboratorios en miniatura” (que en inglés se conocen como sistemas “lab on a
chip”), en los que lo que antes requería el trabajo de varias personas en un
laboratorio entero se reduce a un dispositivo automático formado por numerosos
nanobiosensores, conductos y actuadores integrados en un tamaño menor que el de
un teléfono móvil. El futuro ya está aquí... ¡y cada vez ocupa menos!
Nano-electrónica:
del silicio a las moléculas
6
Miremos
a nuestro alrededor, en casa, en la calle, en el instituto, en la oficina o
mientras viajamos en un automóvil. Es raro estar en un sitio donde no nos
encontremos un aparato o un dispositivo electrónico.
Relojes,
teléfonos fijos y móviles, reproductores de DVD y de música, cámaras
fotográficas, ordenadores, pantallas, vehículos, electrodomésticos, cajeros
automáticos: todos ellos contienen sofisticados componentes electrónicos.
La
electrónica, junto con los avances en medicina y el desarrollo de los medios de
transporte, ha ido cambiando a lo largo del siglo XX nuestra forma de vida.
¿Cómo se inició todo este “boom” electrónico? ¿Cómo hemos llegado hasta aquí?
¿Podremos seguir más tiempo siendo testigos del auge de la electrónica? Este
capítulo trata de responder a estas preguntas y mostrará el papel primordial
que jugará la nanotecnología en el desarrollo de los futuros dispositivos
electrónicos.
El
siglo XX: la era de la Electrónica
Muy
poco después, J. Kilby de la empresa Texas Instruments, en 1958, y R. Noyce, de
la empresa Fairchild Camera and Instruments, en 1959, demostraron que, en lugar
de fabricar los transistores de uno en uno para luego ser ensamblados en el
dispositivo que se deseaba construir, era más sencillo fabricarlos de forma
simultánea sobre una oblea de silicio incorporando además otros elementos como
resistencias y condensadores.
Por este planteamiento, que hoy llamamos
“circuito integrado”, Kilby recibió el Premio Nobel de Física en el año 2000.
Toda la electrónica basada en el uso de semiconductores se suele denominar
“electrónica de estado sólido” en contraposición a la “electrónica de vacío”.
EEE
6.1 Transistor, chip, circuito impreso, circuito integrado.
¡Qué lío!
Vamos
a intentar aclarar las palabras que se utilizan en la jerga de la
microelectrónica. Los componentes básicos con los que se hace un circuito
electrónico son transistores, diodos, condensadores y resistencias.
Cada
uno de ellos realiza una función precisa respecto a los electrones. En la
figura siguiente podemos identificarlos sobre una de las tarjetas extraída de
un ordenador personal, tal vez como el tuyo.
Al
principio, todos estos componentes se unían mediante pequeños cables
eléctricos, pero en cuanto los circuitos se complicaron esto resultaba un
verdadero lío. Así surgió la idea de colocar los componentes sobre una lámina
de plástico duro, y unirlos por la parte de atrás mediante pequeñas pistas de
cobre dibujadas en la lámina.
Esto
es lo que se denomina “circuito impreso”, que no es más que la propia lámina de
plástico donde están los contactos de cobre. Sin embargo, recientemente, todo
esto se ha complicado un poco más: en lugar de utilizar un circuito impreso
donde se colocan todos los componentes, se utiliza un único trozo de silicio
donde se han integrado todos los componentes juntos. Esto es lo que se llama
circuito integrado o chip. Los circuitos integrados se basan en el adecuado uso
del silicio (tipo n y tipo p), combinado con regiones aislantes de óxido de
silicio (que constituyen barreras para el paso de las cargas) y con regiones
formadas por ciertos metales que permiten hacer buenos contactos.
La
combinación de estas diferentes regiones hechas con materiales distintos
permite fabricar diodos, transistores, condensadores, etcétera. Los circuitos
“se dibujan” mediante complejas técnicas de litografía, máscaras, plantillas, y
sustancias que actúan como reveladores (de forma similar a lo que ocurre en
procesos fotográficos tradicionales). Las técnicas de litografía actuales son
capaces de plasmar sobre la superficie de silicio motivos de tamaño nanométrico
(ver el capítulo 2).
Como
ejercicio te proponemos que intentes identificar los distintos componentes en
un circuito electrónico que encuentres. La figura 6.2 te proporciona una pista.
El desarrollo del circuito integrado introdujo un nuevo concepto: la
miniaturización de los dispositivos electrónicos.
La
idea que hay detrás de la miniaturización es muy sencilla: ¿cómo logramos que
un electrón viaje más rápidamente por un circuito de forma que se aumente la
velocidad de los dispositivos? La respuesta es sencilla: disminuyendo la
distancia que tiene que recorrer el electrón. ¡Más pequeño significa, en este
caso, más rápido! Desde 1960, aproximadamente, se inició una carrera
enloquecida por empaquetar el mayor número de componentes electrónicos en los
circuitos integrados que encontramos en los procesadores, los “chips”.
La capacidad de integración ha ido creciendo
vertiginosamente (exponencialmente) de tal manera que el número de transistores
que es posible incorporar por unidad de superficie se duplica cada 18 meses
como ya se ha mencionado en el primer capítulo.
Esta impresionante progresión, pronosticada
por el cofundador de Intel, G. Moore, ha sido imparable durante casi medio
siglo. Por ejemplo, los procesadores Intel Xeon 7100 que se usan en potentes
servidores de cálculo cuentan con 1300 millones de transistores y ya se ha
anunciado que a finales de 2008 varias empresas (Intel, IBM, Infineon, Samsung,
Sun Microsystems, o Chartered Semiconductor) fabricarán procesadores con cerca
de dos mil millones de transistores funcionando a frecuencias superiores a los
3,5 GHz.
La
mayor parte de los transistores que se comercializan en la actualidad están
fabricados con la llamada tecnología MOSFET (siglas del término inglés “Metal
Oxide Semiconductor Field Effect Transistor”) y poseerán una longitud de
“canal” (región conductora que une la fuente y el drenaje de electrones) de tan
sólo 45 nm.
En
el año 2000 la longitud de canal de los transistores MOSFET era típicamente de
unos 180 nm. ¡Esta longitud se ha hecho cuatro veces más pequeña en menos de
ocho años! Por tanto,
puede afirmarse que la nanotecnología ya ha irrumpido en el mundo
de la electrónica basada en el silicio.
¿Algún
día dejarán de usarse los semiconductores para fabricar
“chips”?
La
tecnología actual se basa en el uso de materiales semiconductores como el
silicio para fabricar dispositivos. Un semiconductor en un material que se
comporta como un aislante a bajas temperaturas y como un conductor a altas
temperaturas. El silicio
es el principal material semiconductor que se utiliza en la fabricación de
dispositivos electrónicos.
Su uso masivo se debe a su relativo bajo coste
por encontrarse en abundancia en la superficie terrestre como en el cuarzo o en
la arena de las playas. Sin embargo, el silicio no es uno de los mejores
semiconductores ya que requiere elevadas temperaturas o grandes campos
eléctricos para transportar la electricidad de manera eficiente.
Para mejorar sus propiedades conductoras es
necesario dopar (contaminar) el silicio puro con otros elementos químicos
(llamados dopantes) que le ceden electrones o “huecos” (un tipo especial de
portadores de carga positiva que en realidad no son más que la ausencia de
carga negativa).
De esta forma se logran semiconductores de
“tipo n” (con elementos dopantes que proporcionan electrones
como el fósforo o el arsénico) y de “tipo p” (con dopantes que proporcionan
huecos como el galio o el boro). La densidad típica de los elementos
dopantes del silicio es de 1013-1018 átomos dopantes por cm3 de silicio. Esta
densidad es relativamente pequeña comparada con la del silicio (unos 5×1022
átomos por cm3).
Esto
es así para que los átomos dopantes que se introducen en el silicio cedan
suficientes portadores de de carga, sin cambiar las propiedades fundamentales
del material anfitrión. Un cálculo sencillo permite determinar que en un pequeño
cubo de silicio dopado de 100 nm de arista podemos encontrar típicamente entre
0,01 y 10 átomos de especie dopante, frente a los 5×107 átomos de silicio.
Si
se disminuye el tamaño del cubito de silicio tenemos menos probabilidad de
encontrar portadores de carga en él. A medida que hacemos los circuitos con
transistores con partes más y más pequeñas nos encontramos con un grave
problema: ¡No hay portadores (electrones o huecos) de carga disponibles! ¡Y sin
electrones no hay electrónica!
EEE
6.2 Densidades críticas de dopantes en el silicio
Supongamos
que tenemos silicio dopado de tal manera que sabemos que en cubo de silicio de
100 nm de arista nos encontramos, en promedio, con una única impureza que cede
carga (es decir un único átomo dopante).
Estamos,
pues, ante la concentración mínima o densidad crítica que permite encontrar una
carga en ese pequeño cubito de material. Por debajo de esta concentración
podemos tener problemas para encontrar electrones dispuestos a transportar
electricidad.
En
este caso concreto expresar la densidad de impurezas en átomos por centímetro
cúbico, sabiendo que la densidad del silicio es aproximadamente de 5×1022
átomos por cm3.
Supongamos
ahora ese único átomo dopante se encuentra en un cubito de silicio de 10 nm de
arista y queremos asegurarnos de tener, al menos, una impureza. ¿Cuál es la
densidad crítica? Determinar en ambos casos la relación entre el número de
átomos de silicio y de impureza.
Por
lo tanto, cuando se fabriquen transistores con dimensiones inferiores a cierto
tamaño crítico, el silicio ya no nos será útil en la carrera de la
miniaturización y estaremos obligados a buscar nuevas alternativas.
Estudios recientes, elaborados por las
asociaciones que reúnen a las principales empresas de electrónica, afirman que
podremos seguir usando la tecnología del silicio hasta conseguir unas
densidades de empaquetamiento cercanas a los 250.000 millones de transistores
por chip, ¡125 veces mayores que las que encontramos en los procesadores
actuales! Además, se calcula que esta situación se alcanzará a finales de la
siguiente década.
Lo
que es seguro es que las tecnologías que remplacen a las basadas en el silicio
estarán vinculadas a la nanotecnología. Dado que la implantación de nuevas
tecnologías y nuevos métodos de fabricación es un proceso costoso y
relativamente lento, hay que pensar ya, desde este mismo momento, cómo vamos a
poder seguir incrementando el poder de nuestros dispositivos electrónicos en el
futuro.
EEE
6.3 Almacenamiento masivo
En
el capítulo 1 ya se introdujo el concepto de “bit” (que no debemos confundir
con 1 byte, ya que 1 byte =1 B= 8 bits). Pero ¿cómo de pequeño es un bit? Como
ejercicio, determinar el tamaño típico asociado a un bit de información en un
CD de 700 MB de capacidad y en un DVD de 4,7 GB.
Supongamos
ahora que somos capaces de almacenar un bit de información en un nanómetro
cuadrado. En este caso ¿cuánta información podría almacenarse sobre una
superficie igual a la que tiene un CD actual? Si, en promedio, una canción en formato
MP3 ocupa 5 MB y tiene una duración de 4 minutos ¿cuántas canciones podemos
almacenar en este nuevo tipo de super-CD? Y, por cierto, ¿cuánto tiempo
tardaríamos en escuchar todas las canciones de este super-CD?
Cuando
la ley de Ohm da problemas: transporte balístico
Ya
hemos visto que cuando disminuimos el tamaño de los dispositivos basados en la
tecnología del silicio comienzan los problemas y podemos encontrarnos sin
electrones que transporten la corriente: ¡sin actores no hay función de teatro!
Sin embargo hay otros fenómenos que también pueden condicionar el
funcionamiento de los dispositivos y que se derivan de la propia naturaleza
cuántica de la materia.
Dichos
fenómenos se hacen más evidentes cuando los objetos tienen unos pocos
nanómetros de tamaño. La corriente eléctrica tampoco escapa de este
extravagante comportamiento y empieza a poseer fascinantes (y útiles)
propiedades. Algunas de estas propiedades están recogidas en el cuadro dedicado
a la mecánica cuántica del capítulo 1.
Para
entender lo que sucede a escala nanométrica vamos, en primer lugar, a describir
el transporte eléctrico en un conductor macroscópico. Supongamos, como ejemplo,
que tenemos un cable metálico convencional, como el hilo de cobre que se usa en
una instalación eléctrica.
Cuando
aplicamos con una batería o una pila una diferencia de potencial, o voltaje, V
entre los extremos del cable, los electrones se ven sometidos a un campo
eléctrico y a la correspondiente fuerza eléctrica. Como cualquier partícula en
presencia de una fuerza externa, los electrones se aceleran (siguiendo las
leyes de Newton) y aumentan su velocidad a medida que transcurre el tiempo. Sin
embargo, este incremento de velocidad de los electrones se ve truncado porque
en su camino colisionan con diversos obstáculos.
Estas
colisiones son de tipo inelástico y hacen perder a cada electrón parte de su
energía. La energía perdida se cede a los átomos del material, y este se
calienta. Si este calentamiento es intenso el cable puede llegar a ponerse
incandescente (como le sucede al filamento de una bombilla). Después de cada
colisión el electrón, que sigue sintiendo el campo eléctrico, vuelve a
acelerarse hasta que sufre una nueva colisión.
El
viaje de los electrones dentro de un material conductor es realmente agitado,
una verdadera carrera de obstáculos. Pero ¿contra qué colisionan los
electrones? En principio uno podría pensar que la principal causa de estas
colisiones son los propios átomos pero, aunque parezca sorprendente, el
electrón puede propagarse fácilmente por una red de átomos si estos muestran
una estructura perfectamente periódica, ordenada.
Para desplazarse, el electrón usa unas bandas
o niveles de energía que le están permitidos, mientras que le es imposible
desplazarse con ciertas energías (las llamadas bandas prohibidas de energía).
Esto tiene que ver con el carácter ondulatorio del electrón y es otro “milagro”
de la mecánica cuántica. Sin embargo, si la red deja de ser periódica por la
presencia de defectos o perturbaciones, el electrón empieza a tener problemas
para efectuar su desplazamiento.
Lamentablemente
(para el electrón) los átomos del metal se mueven siguiendo unas vibraciones
colectivas al igual que las que podemos observar en un conjunto de esferas
enganchadas unas a otras mediante muelles.
Dichas
vibraciones, que también son las son responsables de la propagación del sonido
en los materiales, se llaman fonones, palabra que deriva del término griego “φωνος” (fonós)
que significa sonido o voz. Precisamente son estos fonones los que perturban la
estructura periódica y ordenada del metal.
Los
electrones “sienten” que la estructura cristalina se distorsiona y esto provoca
las colisiones de los electrones. Por lo tanto, el viaje de los electrones se
ve continuamente perturbado por las colisiones, lo que se puede interpretar
como una “oposición” del material al movimiento electrónico. Dicha oposición es
lo que se denomina resistencia eléctrica, R.
La
relación entre la intensidad de corriente I que circula por el cable y el
voltaje aplicado V se denomina ley de Ohm y se escribe con la familiar
expresión V= I × R. Dado que la amplitud de las vibraciones de los átomos crece
cuando aumenta la temperatura, es fácil intuir que también se producen más
colisiones de los electrones y la resistencia crece. Se dice que un material
tiene comportamiento metálico cuando la resistencia crece linealmente al
aumentar la temperatura.
En
resumen, a mayor temperatura, más vibraciones, más colisiones, más resistencia.
En nuestro cable no tenemos un único electrón desplazándose. En realidad
tenemos trillones de electrones moviéndose, cada uno aportando su pequeña
cantidad de carga a la corriente y cada unos sufriendo una penosa historia de
colisiones y aceleraciones.
Los físicos, cuando desean estudiar sistemas
con tantísimas partículas, no lo dudan y recurren a la estadística, como hacen
los economistas, los sociólogos, o los ecólogos, y empiezan a hablar de
conjuntos, medias, desviaciones típicas...Algo similar ocurre con la corriente
eléctrica: cuando queremos caracterizar el movimiento de un conjunto muy grande
de partículas sometidas a procesos de colisión utilizamos una magnitud
denominada “recorrido libre medio inelástico”.
Esta
cantidad se define como la distancia promedio que una partícula recorre entre
dos colisiones consecutivas. En el caso de electrones viajando por un hilo
metálico, a medida que la temperatura crece el recorrido libre medio de los
electrones decrece. Por ejemplo, para un hilo de cobre o de oro a temperatura
ambiente (T=300K), el recorrido libre medio inelástico es de unos 39 nm.
Es
decir, típicamente el electrón sufre decenas de miles de colisiones para
recorrer tan sólo un milímetro. Sin embargo, si bajamos la temperatura del hilo
hasta los 10 K (aproximadamente -263 ºC) el recorrido libre medio aumenta hasta
los 3700 nm ¡casi 4 μm! Es
decir, a muy bajas temperaturas, el electrón viaja grandes distancias sin
impedimentos. Esta es una de las razones por la que a los físicos les gusta
trabajar a bajas temperaturas, evitando las fuertes perturbaciones ocasionadas
por las vibraciones atómicas.
¿Qué
ocurriría si midiésemos la resistencia de un cable metálico con un tamaño
inferior al recorrido libre medio? Por ejemplo, imaginemos que fabricamos un
cable de oro de 20 nm de diámetro y 20 nm de longitud (esto es lo que podríamos
llamar un nanohilo de oro) y medimos su resistencia a temperatura ambiente. En
este caso, el electrón transitaría por el cable sin excesivas colisiones dado
que su recorrido libre medio es mayor que el tamaño del cable. Pero si no hay
colisiones...¡no hay resistencia!
¡Entonces
la descripción dada por la ley de Ohm no es adecuada! Efectivamente, el
material ofrece poca resistencia en este caso y se habla de transporte balístico
porque el electrón pasa por el nanohilo como una bala, sin experimentar
molestas colisiones. Esto no significa que no tengamos que estudiar la ley de
Ohm durante el bachillerato o en la universidad, ya que sigue siendo válida
para explicar cómo funcionan los cables de mayor tamaño que habitualmente
usamos en nuestras casas o en los laboratorios.
Y
además...¡más efectos cuánticos!
La
forma en que un nanohilo transporta la corriente se hace más complicada a
medida que su diámetro decrece, pues empieza a manifestar su naturaleza
cuántica. Sabemos que el movimiento de los electrones en la dirección
perpendicular al eje del hilo está confinado por las paredes del mismo (los
electrones no pueden escapar por la superficie del nanohilo).
La mecánica cuántica predice que cuando
tenemos una partícula confinada en un potencial aparece un conjunto de niveles
de energía permitidos. Esto ocurre en todos los átomos, por ejemplo. En el caso
de hilos muy estrechos, el confinamiento hace que únicamente unos cuantos niveles
estén disponibles para el transporte. A dichos niveles también se les llama
“canales de transporte”.
Sin entrar en detalles matemáticos, la
resistencia de un nanohilo cuántico depende de forma directa de las
probabilidades de transmisión de cada uno de los canales disponibles. Esta
visión del transporte electrónico se debe al físico R. Landauer. Dichas
probabilidades de transmisión (¡otra vez la mecánica cuántica hablando de
probabilidades!) se obtienen resolviendo la ecuación de Schrödinger (que se
mencionó en el capítulo 1) mediante complejos algoritmos en poderosos
ordenadores, como veremos en el capítulo siguiente.
El modelo de Landauer es el que sustituye a la
ley de Ohm cuando trabajamos en la nanoescala y los “nano-ingenieros” del
futuro tendrán que saber manejar esta nueva formulación cuando quieran diseñar
nanocircuitos.
Mecánica
Cuántica encima de una mesa
Hemos
visto la naturaleza se rige por las sofisticadas y extrañas leyes de la
Mecánica Cuántica. Las partículas son ondas, las ondas partículas. No podemos
saber con precisión dónde encontrar una partícula. Cuando medimos algo estamos
perturbando enormemente el sistema sometido a observación.
La
energía de una partícula confinada en un lugar sólo puede tomar valores
discretos. Algunas veces las partículas pueden sobrepasar barreras de potencial
aunque no tengan energía suficiente para hacerlo. Es, efectivamente, “otro
mundo” pero es el nuestro.
Sin
embargo, los fenómenos cuánticos suelen desaparecer en nuestro entorno, en el
mundo macroscópico. De esta forma, los efectos cuánticos se esconden y nos
debemos conformar con un mundo clásico donde las leyes de Newton y las leyes
del electromagnetismo nos dicen cómo funcionan las cosas. Bien mirado, menos
mal que eso sucede así...
Por
lo general, si queremos detectar los escurridizos efectos cuánticos debemos
medir con cuidado sistemas donde no haya interferencias entre los objetos
estudiados y su entorno. Esto se logra disminuyendo la temperatura de los
objetos estudiados y/o haciéndolos muy pequeños. En ambos casos se logra
reducir la interacción del objeto con su entorno. Es entonces cuando las cosas,
los objetos, las partículas, empiezan a mostrar su “lado cuántico”. Se sabe que
el transporte de electrones (la corriente eléctrica) posee interesantes
propiedades cuánticas cuando es medido en cables de sección muy pequeña, como
nanocables metálicos, nanotubos de carbono, etcétera. Estos efectos cuánticos
no se observan en un cable convencional de los que utilizamos, por ejemplo, en
nuestra casa para la luz.
Sin
embargo, en un laboratorio de investigación los efectos cuánticos en la
corriente se pueden observar de diversas maneras como, por ejemplo, en
nanocables o nanohilos metálicos.
Estos
nanohilos pueden formarse cuando la punta metálica de un microscopio de efecto
túnel (STM) toca ligeramente un sustrato metálico, formando un nanocontacto que
contiene muy pocos átomos. En esta situación, los electrones muestran su
carácter ondulatorio ya que la situación de confinamiento impuesta por la
geometría provoca la aparición de ciertos niveles de energía permitidos para el
paso de los electrones (se habla de niveles de energía “cuantizados”).
El
número de niveles de energía permitidos decrece a medida que el contacto se
hace más estrecho y eso se manifiesta en que la corriente disminuye a saltos en
lugar de manera continua. Se dice que la corriente está cuantizada. Finalmente,
si seguimos usando el STM con mucha precisión, podemos lograr que el contacto
sea tan pequeño que los electrones pasen de la punta al sustrato mediante
efecto túnel, como se describió en el capítulo 2.
¿Podemos
ver esta corriente disminuyendo a saltos en el laboratorio de un instituto de
bachillerato sin necesidad de equipos sofisticados y costosos? En principio
parece que es imposible fabricar un nanocable con nuestras manos. Sin embargo
hay una forma astuta de hacerlo que, aunque sin demasiada precisión, es
suficientemente buena como para encontrarnos de bruces con la mecánica
cuántica.
Hace
más de diez años, un investigador español del CSIC, J.L. Costa-Krämer, mientras
trabajaba en el Laboratorio de Física de Sistemas Pequeños y Nanotecnología,
tuvo una genial ocurrencia.
Si
dos cables gruesos, de los que usamos de forma cotidiana, se juntan, entonces
forman un contacto. Hasta aquí nada es extraño. Si posteriormente procedemos a
separarlos dicho contacto se romperá. Algo lógico. Sin embargo, es plausible
asumir que justo antes de la separación definitiva, del momento de la ruptura
del contacto, este será muy pequeño, quizás de tamaño nanométrico. Si hacemos
pasar la corriente eléctrica durante ese proceso de separación, ¿seríamos
capaces de ver efectos cuánticos en la corriente instantes antes de que tenga
lugar dicha separación definitiva?
Para
poder observar este fenómeno, Costa-Krämer diseñó un sencillo experimento en el
que se hacía circular corriente (aplicando la tensión con una pila de petaca)
por dos largos cables de cobre, que se disponen sobre una mesa de forma que
queden en contacto.
La
nueva electrónica: moléculas, nanotubos, nanohilos, puntos
cuánticos,...
Hemos
visto que la tecnología del silicio para fabricar dispositivos electrónicos
tiene sus días, mejor dicho, años contados. No se puede predecir el momento
exacto en el que el silicio comenzará a ser sustituido como elemento básico de
la electrónica.
Lo que sabemos es que hay varios candidatos
para convertirse en los componentes nanoelectrónicos del futuro: moléculas,
nanotubos de carbono, nanohilos, puntos cuánticos, etcétera. Todos ellos
tendrán en común algunas características: su tamaño nanométrico y que mostrarán
efectos balísticos y cuánticos cuando transporten electrones. Esto, que parece
un inconveniente, puede ser usado para obtener dispositivos que funcionen de
manera diferente, brindando mejores prestaciones. Vamos a ver las posibilidades
y retos de algunos de ellos.
Moléculas
orgánicas. Entre
los posibles candidatos para sustituir al silicio se encuentran varios tipos de
moléculas orgánicas llamadas electroactivas (aquellas que responden a estímulos
eléctricos). Estas moléculas, que pueden ser muy pequeñas o pueden formar
estructuras macromoleculares poliméricas, se comportan como los materiales
conductores o semiconductores inorgánicos.
Existen
multitud de familias de moléculas electroactivas, como los derivados de
polipirrol, naftaleno, fullereno, tetracianoquinodimetano (TCNQ),
tetratiofulvaleno (TTF), tioles, etcétera.
Todas
estas moléculas, de extraños nombres y compleja formulación, tienen en común su
capacidad para transportar carga eléctrica. El estudio del movimiento de
electrones en moléculas se inició en la década de 1940, aunque la utilización
de materiales moleculares en la fabricación de componentes electrónicos se debe
al descubrimiento de los polímeros conductores (ver el capítulo 3) por parte de
A. J. Heeger, A. G. McDiarmid y H. Shirakawa, que recibieron el Premio Nobel de
Química del año 2000. Estos materiales tienen ya aplicaciones industriales como
diodos orgánicos emisores de luz (OLED, siglas de la expresión en inglés
“Organic Light-Emitting Diode”), transistores orgánicos de efecto campo cables
vibrasen de forma que, en un momento dado, se pudiera romper el contacto.
Si
situamos un convertidor IV (pequeño dispositivo que transforma la señal de
corriente en una de voltaje) en serie en uno de los cables, y la señal del
convertidor la introducimos en un osciloscopio (equipo que nos permite ver de
forma gráfica, sobre una pantalla, cómo cambia el voltaje que proporciona el
convertidor en función del tiempo), entonces podemos monitorizar la corriente a
medida que pasa por el circuito. Dando golpecitos en la mesa se lograba romper
el contacto de una forma un tanto descontrolada.
Cada
vez que ser rompía un contacto, el osciloscopio mostraba la evolución de la
corriente... ¡Y allí estaban los saltos cuánticos de la corriente tal y como
predice la mecánica cuántica! Este trabajo fue publicado en 1995 por J.L.
Costa-Krämer y sus colaboradores en una prestigiosa revista científica
internacional. Posteriormente, estas ideas fueron adaptadas por otros
investigadores para ser usadas como una interesante práctica de laboratorio,
siendo un recurso docente en varias universidades europeas y norteamericanas.
También
se puede utilizar la vibración que produce un altavoz para lograr la separación
de los cables.
(OFET, siglas de la expresión en inglés
“Organic Field-Effect Transistor”) o en la fabricación de paneles solares
orgánicos. Otras aplicaciones futuras se encaminan hacia la fabricación de
baterías, músculos artificiales o diversos tipos de sensores. Es importante
destacar que los polímeros conductores permiten fabricar circuitos impresos que
son transparentes y flexibles, lo que les convierte en verdaderos ejemplos de
materiales “multifuncionales”.
En
un futuro construiremos nano-transistores moleculares a partir de moléculas
diseñadas para mostrar un carácter metálico o rectificador. En algunos casos
estas moléculas podrán cambiar sus propiedades cuando sean iluminadas con luz
de cierta frecuencia, lo que será clave para desarrollar dispositivos
optoelectrónicos. En otras ocasiones, las moléculas poseerán un núcleo
magnético que permitirá ensamblar diminutas memorias.
La
posibilidad de combinar propiedades ópticas, eléctricas y magnéticas en un
único elemento es lo que confiere a las moléculas su mayor potencial. Podemos
empezar a pensar en procesadores donde las corrientes fluyan a través de
moléculas específicamente diseñadas para realizar ciertas operaciones lógicas,
donde otras moléculas almacenen los datos, y otras transformen dicha
información en luz que permitirá transmitir los datos a otras partes del
circuito o al exterior del procesador.
Además, todas estas moléculas podrían llegar a
empaquetarse sobre los circuitos integrados usando métodos de autoensamblado
como los mencionados en el capítulo 4.
EEE
6.4 Reduciendo la dimensión
Los
materiales de nuestro mundo tienen 3 dimensiones (ancho, largo y alto). La
mayor parte de sus propiedades, y en particular las eléctronicas, dependen de
esta dimensionalidad.
Así,
si reducimos el número de dimensiones de un objeto este se comportará de manera
distinta. Hoy podemos conseguir de manera artificial crear materiales que
tengan 2, 1 ó 0 dimensiones (2D, 1D, 0D). Una superficie plana a nivel atómico
es un soporte perfecto para depositar moléculas que formarán un material 2D. Si
utilizamos escalones en la superficie de un material, y conseguimos colocar en
ellos las moléculas, tendremos un material molecular de una sola dimensión.
Finalmente,
si conseguimos, mediante el uso de patrones, colocarlas aisladas en una
superficie, podremos decir que tenemos un material 0D. Aun siendo las mismas
moléculas, sus propiedades electrónicas son diferentes.
¿Cuánto
hay que esperar para llegar a la electrónica molecular? El uso de pequeñas
moléculas para realizar operaciones lógicas (las que permiten construir
complejos circuitos) es algo corriente en los laboratorios. Por poner un
ejemplo mencionaremos que investigadores de las Universidades de Delft (en
Holanda), Cornell (en EE.UU), de las empresas IBM o Hewlett-Packard ya usan
moléculas que funcionan como transistores o que operan como conmutadores
(“switches”) moleculares.
Sin duda, nos encontramos ante una poderosa
alternativa al silicio, que basa su poder en la gran variedad de estructuras
moleculares que la química nos puede brindar. Nanotubos de carbono. Cuando
hablamos de electrónica molecular no hay que olvidar que los nanotubos de
carbono pueden considerarse como una familia especial de macromoléculas.
Como ya se ha mencionado en el capítulo 3, los
nanotubos de carbono poseen unas excepcionales propiedades mecánicas y
eléctricas. Un nanotubo de carbono es una macromolécula capaz de transportar
balísticamente corriente eléctrica sin apenas resistencia. La densidad de
corriente máxima que un nanotubo de carbono puede transportar es centenares de
veces superior a la de un cable metálico de igual sección.
Además,
los nanotubos de carbono pueden ser conductores o semiconductores, lo que
simplificará los procesos de elaboración de microchips, que necesitan muchos
pasos de fabricación debido al uso de diferentes materiales.
La posibilidad de elaborar circuitos
completamente basados en nanotubos de carbono quizás permita dar el salto desde
la tecnología del silicio hasta la del carbono. Otro aspecto que debemos
resaltar es la mayor compatibilidad de los nanotubos de carbono con las
moléculas de origen orgánico (incluidas las biomoléculas que se encuentran en
los seres vivos y vimos en el capítulo anterior) lo que abre su uso para
fabricar implantes inteligentes, biosensores, etcétera.
Nanohilos.
Otras
nanoestructuras que posiblemente tendrán aplicación en nanoelectrónica son los
nanohilos o nanocables metálicos. Estos nanohilos podrán ser pequeñas cadenas
de unos pocos átomos de longitud y de unos pocos átomos de sección. En el
desarrollo de la nanoelectrónica, las conexiones entre dispositivos juegan un
papel clave. Cuando se disminuya el tamaño de los chips necesitaremos
nanoconectores.
Los
nanohilos metálicos podrán realizar estas funciones. Ahora se está aprendiendo
a fabricar de forma controlada cadenas monoatómicas de varios metales y a
conocer cuáles son sus características. Estos nanocables no sólo son buenos
conductores de la electricidad sino que además poseen otras interesantes
propiedades.
Por
ejemplo, si el material
del que está hecho el nanocable es magnético (cobalto, hierro o níquel) podemos
pensar en usar esa doble funcionalidad, ya que se sabe que la resistencia del
nanohilo metálico puede depender de la presencia de un campo magnético externo.
Este fenómeno se llama magnetorresistencia balística gigante.
El
fenómeno de la magnetorresistencia gigante (descubierto en 1982 por A. Fert y
P. Grünberg, galardonados por el Premio Nobel de Física en 2007) ha sido y es
de gran importancia para la industria de la informática, ya que ha
revolucionado la tecnología del almacenamiento magnético en los últimos diez
años, permitiendo construir discos duros de gran capacidad. El hecho de
observar el mismo comportamiento en nanohilos permitirá seguir miniaturizando
los sensores magnéticos y las cabezas de lectura/grabación de los discos duros.
Puntos
cuánticos.
Finalmente, terminaremos este paseo por los candidatos a nanocomponentes
electrónicos del futuro refiriéndonos a los puntos cuánticos. Un punto cuántico
es una estructura cristalina de dimensiones nanométricas, que puede presentar
formas diversas, y que usualmente está fabricado de materiales semiconductores.
En
un punto cuántico, los electrones están atrapados, confinados en las tres
dimensiones. Este confinamiento da lugar a una estructura bien definida de
niveles de energía que depende mucho de la forma y el tamaño del punto
cuántico. Esta disposición de niveles electrónicos recuerda a la que tienen los
átomos y por eso también se les denomina “átomos artificiales”.
Controlando
la forma y el tamaño del punto cuántico podemos controlar su estructura y, por
añadidura, el espectro de la luz que emiten. Este control de las propiedades
ópticas ha hecho que los puntos cuánticos se utilicen para fabricar eficientes
diodos láser (usados como lectores de CD y DVD), células fotovoltaicas, así
como nuevos tintes y marcadores ópticos que permiten el seguimiento de procesos
biológicos
en tiempo real.
Otra
interesante propiedad de un punto cuántico es que su estructura electrónica
cambia cuando atrapa un electrón. Esto es así porque el confinamiento de los
electrones es muy grande y la inclusión de un nuevo electrón causa enormes
fuerzas de repulsión.
Este
cambio de los niveles se puede aprovechar para que el punto cuántico funcione
como un transistor de un único electrón (SET, del inglés “single electron
transistor”). En estos dispositivos la corriente que circula por el transistor
está “cuantizada”, ya que fluye electrón a electrón.
Se
puede decir que la electrónica ha llegado a una sofisticación increíble,
dominando el comportamiento del electrón casi a voluntad. Basándose en el mismo
fenómeno, los puntos cuánticos se usan para almacenar información (de ahí que
también se le denomine “qubit” de la expresión ”quantum bit”).
Estos
qubits permitirán desarrollar la criptografía y la computación cuánticas (ver
el cuadro dedicado al tema), formando parte de ordenadores cuánticos,
poseedores de una gigantesca capacidad que podremos usar para abordar cálculos
ahora inimaginables.
Los
ordenadores cuánticos y la nanotecnología
En
los computadores actuales la información (números, textos, imágenes, canciones,
programas, etcétera) se representa mediante secuencias de bits (unidades
básicas de información). Dichas secuencias son introducidas en procesadores
para realizar ciertas operaciones con ellas (sumar y restar, mostrar imágenes
en una pantalla, reproducir música, buscar una dirección en una agenda, etc.).
La computación clásica se dice que es binaria
y secuencial: es binaria porque el procesador usa bits que pueden tomar dos
valores (0 y 1); y es secuencial porque las operaciones que realiza el
procesador se ejecutan una tras otra. Dichas operaciones se llevan a cabo por
“puertas lógico-aritméticas” que se componen de elementos como transistores,
condensadores, conectores, etc. Estas puertas realizan diversas operaciones con
los bits, siguiendo las leyes del álgebra de Boole, establecida por el
matemático G. Boole en el siglo XIX.
Nos
gustaría que el ordenador del futuro pudiese analizar imágenes obtenidas
mediante satélites para predecir con precisión el tiempo con varias semanas de
antelación, o que encontrase leyes ocultas en mercados bursátiles, o simulase
el funcionamiento del cerebro.
Sin
embargo, sabemos que la miniaturización de los dispositivos electrónicos tarde
o temprano llegará a su final, cuando las leyes de la física nos impidan seguir
disminuyendo el tamaño de los circuitos. En algún momento dado no podremos
seguir por el camino actual, el de los procesadores de silicio, binarios,
secuenciales y que operan con las leyes de Boole.
¿Hay
alternativas para construir ordenadores todavía más potentes que los actuales?
Existen varias propuestas, pero una de las más llamativas es la de construir
ordenadores que funcionen con unas premisas radicalmente diferentes: las de la
mecánica cuántica. Esta idea fue propuesta por un “conocido” nuestro: R.
Feynman.
El
secreto de los ordenadores cuánticos radica en un procesador capaz de operar
con todas las soluciones simultáneamente. ¿Cómo? De nuevo utilizando las ideas
más extrañas de la mecánica cuántica. Ya vimos en capítulos anteriores que el
principio de dualidad ondacorpúsculo de la mecánica cuántica afirma que un
sistema físico se comporta simultáneamente como partícula y como onda.
Una
consecuencia de este principio es la existencia de niveles de energía discretos
(cuantizados) en átomos y moléculas. La existencia de estos niveles nos es más
familiar en el caso de las ondas estacionarias en una cuerda o en un tubo de un
órgano. Por ejemplo, las notas musicales asociadas a las vibraciones de una
cuerda de guitarra corresponden a los “niveles de energía” asociados a la nota
fundamental y sus armónicos.
Estos
últimos poseen frecuencias que son múltiplos de la frecuencia de la nota
fundamental. Además en una misma cuerda vibrante pueden coexistir e interferir
la nota fundamental y sus armónicos. Pues bien, lo mismo ocurre con las ondas
de materia: se pueden superponer e interferir entre sí.
En concreto, la mecánica cuántica afirma que
un sistema con varios estados accesibles puede estar caracterizado por una
superposición o combinación de los mismos. Supongamos que tenemos un átomo que
posee dos niveles de energía EA y EB, en los que podemos situar (o preparar,
como se suele decir) un electrón durante largo tiempo.
Si el electrón está en el nivel A, podemos
decir que el átomo representa un bit clásico 0. Si el electrón se encuentra en
el nivel B, tenemos un bit clásico 1. Se dice que tenemos dos posibles estados
(0 y 1) para el átomo. Hasta aquí nada nuevo ¡salvo que estamos usando como bit
un único átomo! Sin embargo, la mecánica cuántica nos permite asociar una
función de onda a cada uno de esos estados. Llamémoslas ΨA y ΨB.
Estas funciones de onda pueden
superponerse y así preparar el sistema en una combinación lineal de ambos
estados de la forma cAΨA + cBΨB, donde las cantidades cA y cB las podemos
elegir a voluntad.
El concepto de superposición de ondas cuánticas permite introducir el concepto
de bit cuántico, también conocido como cubit o qubit.
Aparentemente
podríamos pensar que la superposición de estados no es útil, ya que la
información parece que se mezcla de forma poco controlada. Sin embargo este no
es el caso. Los cubits se pueden agrupar para aumentar la cantidad de
información cuántica acumulada.
Por
ejemplo, en un registro formado por 4 bits clásicos podemos almacenar
simultáneamente 24=16 números correspondientes a las 16 configuraciones que
pueden darse de forma simultánea (0000, 0001, 0010, 0100...). Sin embargo, en
dicho registro clásico de 4 bits sólo podemos almacenar una de ellas en un
momento dado. La computación cuántica busca la utilización de esta capacidad de
almacenamiento simultáneo mediante la ejecución de algoritmos que permitan
trabajar en paralelo a un nuevo tipo de procesador: el procesador cuántico.
De
esta forma los cálculos cuánticos se hacen sobre la superposición de todos los
estados a la vez, en un mismo paso computacional. Así un procesador cuántico
trabaja sobre la información almacenada en 4 cubits simultáneamente. Esto es un
gran avance sobre la computación clásica secuencial. Se puede decir que el
procesador cuántico será intrínsecamente “paralelo” en comparación con el
procesador actual.
La
construcción de los computadores cuánticos no va a resultar nada fácil, ya que
en un ordenador cuántico se necesita introducir y procesar la información,
realizar correcciones de errores, leer y almacenar los resultados. Todas estas
operaciones se deben realizar con nuevas puertas lógico-aritméticas basadas en
las leyes cuánticas, es decir hay que usar “puertas cuánticas”.
Estas
puertas cuánticas nos permitirán programar algoritmos que también serán de tipo
cuántico. En la actualidad ya se han diseñado varios algoritmos de computación
cuántica que proporcionarán considerables ahorros de tiempo frente a los
algoritmos clásicos. Por ejemplo, supongamos que queremos encontrar los
factores primos de un número con 300 dígitos. Un moderno procesador de 3GHz
necesitaría del orden de 50.000 años para ejecutar los 5×1024 pasos que se
requieren usando algoritmos clásicos. Sin embargo, aprovechando los cubits y
los algoritmos cuánticos diseñados por el matemático P.W. Shor, la misma
factorización necesitaría 5×1010 pasos y se ejecutaría en décimas de segundo en
un procesador cuántico.
Esto
tiene implicaciones terribles desde el punto de vista de la seguridad
informática, ya que las claves criptográficas que permiten movimientos seguros
de información por Internet se basan en la factorización de números. Cuando los
ordenadores cuánticos se pongan en funcionamiento los sistemas informáticos
tradicionales serán vulnerables y habrá que pensar en nuevos algoritmos de
criptografía (que serán cuánticos, obviamente).
Todavía
se desconocen cuáles serán los materiales de los que estarán fabricados los
futuros procesadores cuánticos. Se han propuesto sistemas basados en trampas de
iones, en el uso de moléculas y líquidos dentro de un sistema de resonancia
magnética nuclear (RMN), en puntos cuánticos, etcétera. En la fabricación de
los cubits y de las puertas cuánticas la nanotecnología desempeñará un papel
primordial. Sin embargo, no estamos hablando de un futuro remoto puesto que la
carrera por hacer realidad la computación cuántica ya ha comenzado y en 2007 la
empresa D-Wave Systems (http://www.dwavesys.com/) presentó un prototipo de
ordenador cuántico de 28 cubits.
La
llegada de los ordenadores cuánticos implicará un cambio radical en el hardware
y el software que ahora conocemos, pero permitirá realizar cálculos hoy
impensables. No debemos terminar sin mencionar que uno de los científicos más
importantes en este campo es el español J.I. Cirac, Premio Príncipe de Asturias
del año 2006, y que actualmente es director del Instituto Max Planck de Óptica
Cuántica, un prestigioso centro de investigación alemán.
Más
allá de la electrónica: nanofotónica, espintrónica, biocomputadores y
“ciempiés”
Saber
cómo serán los ordenadores del futuro es una pregunta con difícil respuesta ya
que los ordenadores contienen componentes que proceden de muy diversas
tecnologías. No hay que centrarse únicamente en el procesador, aunque tenga un
papel fundamental. Hay que hablar también de la memoria, los sistemas de
almacenamiento de datos, los periféricos, los interfaces con los humanos, las
comunicaciones, el software, etcétera.
Podemos
aventurarnos a afirmar que los procesadores, el corazón de los equipos
informáticos, dejarán de fabricarse con silicio y se basarán en el carbono o en
moléculas orgánicas. Sin embargo no hay que descartar que funcionen con haces
de luz, capaces de realizar operaciones lógicas gracias a dispositivos llamados
cristales fotónicos. Estos materiales son capaces de manipular la luz gracias a
la presencia de nanoestrucuturas ordenadas que los forman.
Estamos hablando de la nanofotónica. Pero
puede ocurrir también que las operaciones lógico-matemáticas se lleven a cabo
en circuitos en los que la cantidad física que se propague y manipule no sea la
carga del electrón sino su espín (una propiedad cuántica que puede equipararse
a una rotación interna del electrón).
En
este caso, los circuitos estarán diseñados de forma tal que sean capaces de
aprovechar este carácter dual de la información que transporta un electrón.
Estamos hablando de la espintrónica.
Finalmente,
no se puede descartar que logremos manipular la codificación genética hasta tal
punto que podamos usar las cadenas de ADN o ARN como verdaderos códigos de
computación para realizar operaciones cuyos resultados deberían extraerse del
análisis de las proteínas sintetizadas a partir de la información genética. El
“procesador” del ordenador podría ser un pequeño tubo de ensayo conectado a
rápidos sistemas de análisis de proteínas.
Estamos hablando de la computación
basada en ADN.
Sin embargo, el procesador del futuro quizás sea una combinación de estas
apuestas que ahora se plantean en los laboratorios u otra totalmente diferente.
Desde
el punto de vista de las memorias y del almacenamiento, se producirán avances
notables y puede que se llegue a utilizar átomos individuales como bits. En
esta dirección, investigadores de IBM ya han demostrado la capacidad de grabar
y leer información en átomos aislados de hierro, controlando su momento
magnético.
Antes
de llegar a este extremo, se usarán otras formas de almacenar datos, que sean
evolución de las ahora existentes. Por ejemplo, en 2003 investigadores de la
Academia China de Ciencias demostraron que se podía hacer de forma controlada
marcas rectangulares de un tamaño 1,5 nm x 1,1 nm sobre una superficie
recubierta de polímero. Además las marcas se podían separar 1,5 nm.
Si interpretamos la presencia o ausencia de
marca como el valor 1 ó 0 de un bit, se lograría un aumento importantísimo de
la densidad de almacenamiento, haciendo que un disco de tamaño similar a los
actuales DVD pudiera almacenar 1 TB. Esta cantidad de datos es equivalente a la
información contenida en 266 DVD actuales.
Otros
modelos de almacenamiento serán radicalmente diferentes. En el capítulo 2 ya
hemos visto como un microscopio de fuerzas atómicas puede leer e incluso
modificar detalles sobre una superficie. Sin embargo utilizar el AFM en el
proceso de grabación/verificación/lectura para grabar millones y millones de
bits sería extremadamente lento.
¿Cómo
mejorar la eficiencia del proceso? La respuesta es obvia: usando miles y miles
de micropalancas similares a las del AFM trabajando en paralelo. Hace ya seis
años que IBM presentó los primeros prototipos de este tipo de sistemas,
llamados “Millipede” (ciempiés). Gracias al trabajo simultáneo de más de 4096
palanquitas estos sistemas son capaces de almacenar 2 GB en un cuadrado de 7 mm
de lado. Sin embargo, el proyecto tiene serios competidores con los discos
magnéticos convencionales y no parece que salga al mercado.
Aunque finalmente no se pueda comercializar,
su desarrollo será útil para otras áreas como el diseño de sensores o la
fabricación de máscaras con las que, a su vez, construir otros nanosistemas.
En
cuanto a los dispositivos periféricos de los ordenadores, es previsible que los
monitores sean grandes, flexibles, plegables y táctiles. Los ratones y teclados
puede que desaparezcan poco a poco tal y como los conocemos, y podremos
comunicarnos verbalmente con las máquinas o a través de técnicas de realidad
virtual.
Las
redes de ordenadores ya sólo serán inalámbricas y de altísima velocidad.
Seguramente los conceptos de ordenador, agenda electrónica, teléfono móvil,
reproductor de música, mando a distancia,... se quedarán obsoletos y habrá
nuevos dispositivos que reúnan sus funciones y añadan muchas más.
Todo
esto será posible gracias a la capacidad para poder hacer nuevas cosas y cada
vez más pequeñas. Está claro que los dispositivos electrónicos con los que
conviviremos dentro de veinte años serán muy diferentes (por dentro y por
fuera) a los que conocemos hoy, pero, en cualquier caso, la nanotecnología será
clave para su desarrollo. Este impulso permitirá que la revolución de la
informática y las comunicaciones siga su ritmo trepidante.
7 Nano-simulación: el laboratorio
en un ordenador
“Los
ordenadores que utilizaremos dentro de 20 años serán de unos 8,8 GHz, ya que
cada año hay un aumento de 0,25 GHz en los procesadores, y tendrán discos duros
de unos 100 Terabytes”.
Los
científificos desarrollan una serie de procedimientos que son usados para
intentar entender todos los fenómenos que ocurren en la naturaleza. Este
conjunto de metodologías es lo que se conoce como “método científifico”.
El método científifico nos permite acercarnos
a los fenómenos naturales de forma neutral, estableciendo relaciones entre los
mismos. Estas relaciones son las leyes científificas que deben explicar los
fenómenos ya observados y ser capaces de predecir otros.
Con
toda esta información los seres humanos han sido capaces de seguir generando
otros nuevos, desarrollar nuevas tecnologías y, como consecuencia, mejorar sus
condiciones de vida. Este proceso se ha dado desde los tiempos más remotos pero
se ha hecho más patente desde el Renacimiento, y en particular, en los últimos
doscientos años. La nanotecnología continuará manteniendo este impulso a lo
largo del siglo XXI.
A
lo largo de la última mitad del siglo XX ha surgido un nuevo aliado de los
científificos e ingenieros: el ordenador, herramienta con la que ha sido
posible no sólo hacer experimentos en el laboratorio sino también realizar
simulaciones y predicciones.
El desarrollo de potentes métodos de cálculo
que se ejecutan en super-computadores, supone que experimentos muy complejos y
caros podrán simularse desde los primeros principios en un ordenador,
incluyendo en el cálculo toda la información disponible. Estos son
“experimentos virtuales” que cada vez reproducen con más precisión el
comportamiento de la materia a escala nanométrica.
El
método científico y las matemáticas
El
método científico presenta dos aproximaciones: la experimental (método
deductivo) y la teórica (método inductivo). En ambos casos es preciso definir
una serie de magnitudes que sean observables y cuantificables, es decir
medibles. Además es preciso establecer una relación entre ellas que permita
explicar la variación de unas en función de las variaciones de otras.
Dichas
relaciones se expresan mediante el lenguaje de las matemáticas (fórmulas) y
constituyen la expresión formal de las leyes científicas. En ciencia, las
matemáticas no sólo sirven para expresar leyes físicas, químicas o biológicas,
de carácter abstracto, sino que se usan activamente para analizar datos,
realizar predicciones, etcétera.
La
ciencia ha evolucionado desde la elaboración de sencillos modelos explicativos
del mundo hasta las elaboradas teorías modernas. A su vez, las matemáticas han
ido transformándose y aumentando su complejidad.
Cuando
filósofos griegos como Leucipo y Demócrito establecieron la teoría atomística,
o cuando Tales de Mileto, Anaximenes, Heráclito, Empedocles o Platón buscaron
unos principios, o elementos que explicasen el origen de todas las cosas, no
fue posible establecer hipótesis científicas
razonables ni las correspondientes leyes matemáticas.
En algunos casos se representaba la naturaleza
bajo un envoltorio matemático, como hizo Platón, planteando una relación entre
los cuatro elementos fundamentales y ciertas figuras geométricas (los sólidos
platónicos): la tierra se corresponde con el cubo, el aire con el octaedro, el
agua con el icosaedro y el fuego con el tetraedro. Posteriormente Aristóteles
añadió a la lista el éter, representado por un dodecaedro como elemento
constituyente del cosmos.
Esta
ingenua representación del mundo se corresponde con el grado de desarrollo de
la civilización en aquellos momentos. Sin embargo, el principal mérito que
podemos atribuir a estos filósofos pioneros es su intento de desprenderse de
las explicaciones de los fenómenos que se dan en nuestro Universo basadas en
mitos y leyendas, estableciendo las bases tanto de la filosofía como de lo que
mucho más tarde se denominó método científico.
Calcular
para predecir
Poner
a prueba una teoría supone la elaboración de predicciones a partir de las leyes
científicas que se desean probar. Este ejercicio requiere la realización de
cálculos, unas veces sencillos pero otras, las más, muy complejos. Estas
predicciones son contrastadas en el laboratorio o en el trabajo de campo: si no
se cumplen podemos considerar que las hipótesis de partida no son válidas, la
teoría no está bien construida, o que los cálculos efectuados para realizar las
predicciones son erróneos.
EEE ¿Cuánto tardará en caer un objeto desde el
piso 20?
Pongamos
un ejemplo sencillo de cómo cualquiera de nosotros puede aplicar el método
científico a la resolución de un problema cotidiano. Imaginemos que queremos
determinar el tiempo que tarda en tocar el suelo un objeto que hemos dejado
caer desde una determinada altura. Pues bien, para aplicar el método científico
experimental o deductivo a la resolución de esta cuestión bastaría con subirse
a, por ejemplo, un décimo piso, dejar caer el objeto, por ejemplo una canica, y
cronometrar cuidadosamente el tiempo que tarda en llegar al suelo.
En
realidad se efectuarían varía medidas para estimar un valor medio del tiempo de
caída y el posible error experimental. Después, bajaríamos al piso noveno y
repetiríamos la operación, y así sucesivamente hasta llegar al primero. Al
final de nuestro pequeño experimento podríamos construir una tabla donde a cada
altura (distancia del piso correspondiente al suelo medida en metros) le
correspondería un determinado tiempo de caída (medido en segundos).
Una
vez obtenidos estos resultados experimentales, y tras una cuidadosa observación,
podríamos establecer una relación general entre ambas magnitudes de la forma:
tiempo de caída ~ 0,45 × (altura)1/2. Esta relación nos serviría en un futuro
para poder hacer previsiones sin tener que recurrir a la experimentación.
¿Cuánto tardaría en caer desde el vigésimo piso? ¿Esta misma ley funcionaría si
lanzamos una pelota de tenis de mesa? ¿Crees que esta ley obtenida depende de
la masa del objeto?
Una
vez planteadas las ecuaciones que gobiernan un fenómeno físico o químico, la
forma más general de resolverlas consiste en la llamada vía analítica:
encontrando soluciones generales de estas ecuaciones. Sigamos desarrollando el
ejemplo EEE. En el que soltamos en caída libre un cuerpo desde cierta altura
inicial h0. Sabemos, a partir de la segunda ley de Newton, que la aceleración
que sufre un cuerpo es proporcional a la fuerza neta que sobre él se ejerce.
Supongamos,
además, que la fuerza que la Tierra ejerce sobre un cuerpo dado es proporcional
a su masa m y a la cantidad g (siendo g=9.8 m/s2, la aceleración debida a la
fuerza de la gravedad en la superficie terrestre). Con un poco de álgebra es
posible obtener la expresión que predice la altura h a la que encontraremos el
objeto una vez transcurrido un tiempo t.
Esta
expresión analítica y general tiene la forma h(t) = h0 -1/2×g×t2 y se puede
emplear para diversos valores de la masa y la altura inicial (aunque como se ve
la masa del objeto no interviene en la ecuación). Usando una sencilla
calculadora podemos realizar predicciones sobre el tiempo que dura la caída de
un objeto. También se pueden determinar otras cantidades, como la velocidad
justo antes de impactar contra el suelo.
¿Qué
ocurriría si necesitamos hacer este cálculo para 3500 objetos diferentes, situados
a distintas alturas iniciales? Es evidente que con ayuda de una hoja de cálculo
o un pequeño programa de ordenador resolveríamos rápidamente este problema
cuando necesitemos realizar tediosas repeticiones del cálculo.
Por
lo general, la mayoría de las ecuaciones que describen los fenómenos naturales
no presentan una fácil resolución. En algunos casos estas ecuaciones se
simplifican eliminando algunos términos o algunas variables que no son
especialmente importantes (se dice que no son significativas).
Existen
otros tipos de simplificaciones, en las que algunos términos o variables se
sustituyen por otros más manejables. Por ejemplo, es habitual encontrar
desarrollos matemáticos donde los objetos pequeños (o incluso muy grandes) se
reemplazan por puntos o los objetos casi esféricos se consideran esferas
perfectas. Estas aproximaciones permiten, en algunos casos, encontrar bellas
soluciones analíticas, siempre requiriendo grandes dosis de paciencia y
destreza algebraica.
En
ciertas áreas de conocimiento la descripción matemática de los sistemas de
estudio requiere manejar infinidad de variables. ¿Cómo describir el enrollamiento de una cadena de ADN,
la dinámica de un ecosistema, el tráfico de vehículos de una gran ciudad, el
comportamiento de un huracán, el impacto de un meteorito sobre un lejano
planeta, la colisión de dos galaxias o el flujo de compraventa de acciones que
tiene lugar en la bolsa?
En
muchos de estos ejemplos se utilizan magnitudes estadísticas para entender de
forma aproximada cómo se comporta el sistema. Los ejemplos anteriores
constituyen casos concretos de sistemas complejos cuyo comportamiento requiere
una descripción matemática sofisticada y en los que obtener buenas predicciones
depende de la realización de cálculos nada triviales.
De
las reglas de cálculo a los superordenadores
En la década de 1960 los procesadores
alcanzaron los 100 Mflop/s. En la actualidad los procesadores que existen en
los ordenadores convencionales pueden llegar a alcanzar los 30 Gflop/s. Toda
esta vertiginosa evolución de la capacidad de cálculo es otra forma de poner de
manifiesto la ley de Moore, ya mencionada en anteriores capítulos.
Además
del aumento de potencia de los procesadores ha habido otros avances
relacionados con la arquitectura de los equipos. En la actualidad se consigue
aumentar la potencia de cálculo acumulando procesadores que trabajan en
paralelo mediante sofisticados sistemas operativos que gestionan de forma
eficiente todo el flujo de datos de entrada y salida mediante conexiones de
altísima velocidad.
Estamos
hablando de los supercomputadores. Actualmente existen centenares de ellos
distribuidos por todo el mundo. Un listado de los más importantes se puede
encontrar en la web http://www.top500.org/. En el momento de escribir esta
unidad didáctica el supercomputador más potente del mundo, llamado “Roadrunner”
(“Correcaminos”), se encuentra en EE.UU., ha costado 133 millones de dólares, y
cuenta con casi 16.000 procesadores cell que le proporcionan una potencia
conjunta “pico” de cálculo de unos 1,6 Petaflop/s (1.600 Tflop/s) ¡1.600
billones de operaciones por segundo!
Pero
cuando estés leyendo estas líneas, estos números ya habrán aumentado, seguro.
Esta revolución, junto el desarrollo de poderosos sistemas operativos y
lenguajes de programación como C, COBOL, PASCAL, o FORTRAN, han permitido que
la informática se haya incorporado de forma irreversible en empresas, centros
de investigación, y en nuestras vidas.
Desde
la perspectiva científica se puede decir que en los últimos 50 años se ha
asistido a la formación de un “círculo virtuoso” en el que los avances
científicos se plasman en la construcción de mejores computadoras que a su vez
permiten avanzar más rápidamente en la búsqueda de nuevos materiales que
sirvan, entre miles de aplicaciones, para mejorar de nuevo los futuros equipos
informáticos.
Simulación:
una forma de ahorrar recursos y tiempo
¿Para
qué hay que hacer simulaciones en el ámbito de la nanociencia? Ha quedado claro
que el cálculo es una tarea inherente al método científico y, en particular, el
uso de complejos sistemas de cálculo es esencial cuando nos referimos al
nanomundo.
En primer lugar, las leyes de la mecánica
cuántica que rigen la materia en la nanoescala plantean terribles problemas
numéricos que deben ser resueltos y en los que las aproximaciones analíticas
(es decir, intentar resolver las ecuaciones directamente obteniendo expresiones
algebraicas) son demasiado difíciles.
Por
otro lado, la experimentación en la nanoescala requiere instalaciones, equipos
y personal para efectuar la síntesis, fabricación y caracterización de
materiales, estructuras y dispositivos. Todo esto resulta muy costoso. Además
se necesita invertir mucho tiempo y dinero para modificar la composición de un
material o la estructura de un dispositivo con el fin de intentar mejorar sus
propiedades, con el riesgo de no conseguir mejoras apreciables tras dedicar
mucho esfuerzo.
¿Podemos
seguir otra estrategia que permita ahorrar recursos, tiempo y dinero? La
respuesta es sí. Puesto que conocemos las ecuaciones que describen la
naturaleza en la nanoescala, y dado que los ordenadores son cada vez más
potentes, es posible describir las propiedades de materiales y simular procesos
en la nanoescala usando aproximaciones numéricas.
Se
habla entonces de hacer “experimentación
in silico” (refiriéndose al silicio del que está fabricado el
procesador) en contraposición a la experimentación “in vivo” o “in vitro”. Ya
se han dando pasos en esta dirección durante las tres últimas décadas, de la
mano de la revolución informática. Pasos que son más y más largos a medida que
los superordenadores se hacen más poderosos y los códigos de computación más
complejos.
Cálculos
en la nanoescala: de los cálculos ab-initio a los métodos semi-clásicos
La mecánica cuántica es el esquema
conceptual que nos permite entender cómo están formados los átomos, cómo estos
se enlazan para formar moléculas, cómo se mueven dentro de una molécula, y cómo
estas se mueven bajo la influencia de fuerzas externas, cómo se deforman los
materiales en presencia de tensiones o aumentos de temperatura, cómo pueden
emitir radiación electromagnética, cómo pueden transportar carga, etcétera.
Recordando
el contenido dedicado a la mecánica cuántica, esta formulación se asienta sobre
la ecuación que Schrödinger planteó en 1925, y que permite conocer como se
comportan los sistemas mecanocuánticos.
Dicha
ecuación juega el mismo papel que las leyes de Newton en mecánica clásica. La
ecuación de Schrödinger permite determinar la llamada “función de onda” Ψ(x,y,z)
asociada a una partícula que está sometida a la influencia de un potencial
V(x,y,z). Las cantidades (x,y,z) son las tres coordenadas espaciales.
La
cantidad │Ψ(x,y,z)│2
representa la probabilidad de encontrar una partícula en el entorno del punto
(x,y,z). Esta información parece, aparentemente, pobre por tratarse de una
probabilidad, pero a partir de ella podemos conocer la forma de moverse de los
electrones que forman parte de átomos y moléculas, y explicar la formación de
los enlaces químicos, como vimos en los capítulos 3 y 4.
Un
aspecto llamativo que caracteriza lo que ocurre en sistemas atómicos y
moleculares es que las energías de sus electrones no pueden tomar valores
arbitrarios. Por el contrario, estas energías solamente pueden tomar una serie
de valores discretos, los niveles energéticos.
Dichos niveles explican la estructura del
espectro de luz emitida o absorbida por la molécula. Estos espectros nos
permiten diferenciar unas sustancias de otras. Desde el punto de vista teórico,
una primera aproximación consistiría en proponer un modelo molecular (una forma
concreta de la molécula, especificando los tipos de átomos y sus posiciones) y
encontrar sus niveles de energía, resolviendo la ecuación de Schrödinger.
Posteriormente,
podemos establecer una comparación directa entre los espectros teóricos y
experimentales, y determinar si la estructura propuesta para una molécula es
correcta. Además, conociendo la función de onda de todo el sistema se puede
calcular las fuerzas que unos átomos ejercen sobre otros y, aplicando las leyes
de Newton, averiguar cómo son las diferentes vibraciones atómicas dentro de la
molécula.
También se pueden determinar las energías de
disociación molecular, las energías de ionización, sus propiedades magnéticas,
etcétera. Todas estas magnitudes se comparan con observaciones experimentales,
de forma que las predicciones de la mecánica cuántica están sometidas
continuamente a comprobación, tal como impone el método científico.
A
medida que las moléculas son más grandes se necesita resolver una ecuación de
Schrödinger progresivamente más compleja. Por ejemplo, determinar la estructura
electrónica de una molécula como el benceno (C6H6) requiere resolver, en
principio, una ecuación de Schrödinger en la que aparecen las 162 coordenadas
de las 54 partículas (12 núcleos atómicos y 42 electrones) que forman la
molécula.
En estos casos se necesitan, obligatoriamente,
simplificaciones que hagan tratable el problema. Por lo tanto, la ecuación de
Schrödinger puede resolverse con distintos grados de aproximación. Se dice que
se efectúa un cálculo “ab-initio” (o de primeros principios) cuando somos
capaces de predecir la estructura electrónica de un sistema (es decir, las
funciones de onda y los niveles de energía de los electrones que forman dicho
sistema) con tan sólo conocer el tipo de átomos que lo forman y sus ubicaciones
en un momento dado.
Los
cálculos “ab-initio” requieren sofisticados programas, de miles y miles de
líneas de código de programación, que son desarrollados con la colaboración de
muchos científicos. Estos programas continuamente se perfeccionan para abordar
el estudio de sistemas físicos, químicos y biológicos cada vez más complejos.
Como
ejemplo podemos citar los siguientes códigos ab-initio: GAMESS, GULP, GAUSSIAN,
VASP, CASTEP, DMOL, SMEAGOL, FIREBALL o SIESTA. En particular este último
código, cuyas siglas corresponden a la expresión “Spanish Initiative for
Electronic Simulations with Thousands of Atoms” (http://www.uam.es/departamentos/ciencias/fismateriac/
siesta/), ha sido desarrollado, como podía imaginarse por su nombre, por
científicos españoles y ha alcanzado una gran difusión internacional.
A
pesar de la gran capacidad de los ordenadores actuales, estos se quedan
pequeños ante la envergadura de muchos problemas reales. Por lo general, las
simulaciones cuánticas ab-initio son demasiado costosas y se utilizan para
estudiar sistemas de unas pocas decenas de átomos.
Si
disponemos de acceso a supercomputadores podemos llegar a estudiar sistemas con
unos pocos centenares de átomos. Aún así, estos sistemas son muy pequeños si
tenemos en cuenta que un cubo de 10×10×10 nm3 puede contener más de un millón
de átomos.
Entonces,
¿cómo estudiar las propiedades, por ejemplo, de una nanopartícula de 20 nm de
diámetro o cómo describir la forma en que se pliega una proteína? En estos
casos debemos simplificar la rigurosa forma de trabajo “ab-initio” y encontrar
alguna metodología más sencilla que mantenga la información sobre su origen
cuántico.
Una
simplificación bastante radical del problema cuántico consiste en desarrollar
de forma meticulosa los potenciales que “sienten” los átomos del sistema debido
a la presencia de la nube electrónica originada por el resto de átomos
circundantes. Si desarrollamos un potencial que contenga los principales rasgos
del problema cuántico entonces podemos intentar usarlo para describir sistemas
formados por un gran número de átomos.
Esta
aproximación se denomina semi-clásica (por encontrarse a mitad de camino de las
aproximaciones clásica y cuántica) y permite estudiar el comportamiento
dinámico de sistemas que contienen varios millones de átomos.
Estos
cálculos necesitan códigos de programación menos sofisticados que los empleados
en el caso “ab-initio” pero se efectúan también en poderosos sistemas de
computación. Por ejemplo se puede estudiar cómo colisiona una nanopartícula
sobre una superficie, analizar la dinámica de vibración de objetos complejos,
estudiar el plegamiento de una proteína, descubrir los mecanismos de fractura
de un nanohilo, o determinar el punto de fusión de sistemas formados por
pequeños granos de diferentes materiales.
En
todos estos casos, lamentablemente, se
pierde el rastro de lo que le ocurre a la nube de electrones y sus niveles de
energía. Es el precio que hay que pagar para poder estudiar sistemas de mayor
tamaño. Sin embargo, no debemos olvidar que el “círculo virtuoso” de la
interacción entre las ciencias y las tecnologías de la información hará que,
tarde o temprano, los cálculos puramente cuánticos sean aplicables a sistemas
muy grandes.
Sólo
es una cuestión de tiempo, tal como nos dice la ley de Moore. Cuando el sistema
que se desea simular es mucho mayor, como por ejemplo una membrana celular, un
ribosoma o un virus, se necesita realizar cálculos que ya son inabordables
incluso usando aproximaciones semi-clásicas.
En
estos casos se utilizan otros métodos muy similares a los que se utilizan en ingeniería
para estudiar problemas macroscópicos como las deformaciones de un vehículo
ante un impacto o la distribución de temperaturas en una transbordador espacial
durante su reentrada en la atmósfera.
En
estos casos, el sistema que se desea estudiar es dividido en pequeños
fragmentos (elementos finitos). Las leyes de la física nos permiten establecer
una serie de ecuaciones que nos determinan como cada fragmento interacciona con
los otros fragmentos circundantes. Para resolver estas ecuaciones se necesitan
de nuevo poderosos ordenadores que nos permiten predecir el comportamiento de
un material o comprobar los resultados experimentales.
Con
esta aproximación se difumina, evidentemente, la información aportada por la
teoría cuántica (funciones de onda, niveles energéticos, probabilidades,
etcétera) aunque permite obtener información que es muy útil para ciertas
aplicaciones de los materiales estudiados.
En
este capítulo hemos visto cómo los modernos ordenadores, junto con el
desarrollo de programas que tienen en cuenta la naturaleza cuántica de la
naturaleza, son herramientas indispensables para estudiar el nanomundo. Con
ellas somos capaces de entender y complementar los fenómenos observados y los
resultados experimentales, y, en algunos casos, nos permiten ir más allá de la
información que se consigue en el laboratorio.
Nano-aplicaciones
del laboratorio al escaparate
8
Ya
hemos mencionado en varias ocasiones que la nanociencia y la nanotecnología son
áreas multidisciplinares. Cada vez es más frecuente la colaboración de
químicos, físicos, ingenieros y biólogos en los laboratorios donde se trabaja
en estas disciplinas. Para todos ellos la nanoescala es un punto de encuentro y
un inmejorable terreno de juego.
Como
consecuencia de su carácter multidisciplinar, la nanotecnología proporciona un
amplio abanico de aplicaciones que, con toda seguridad, van a cambiar nuestras
vidas en las próximas décadas. En este capítulo vamos a ilustrar algunas de
ellas. Se suele considerar que las áreas de aplicación de la nanotecnología
son:
(I)
los
nuevos nanomateriales;
(II)
la
nanoelectrónica;
(III)
la
nanobiotecnología y la nanomedicina;
(IV)
la
nueva instrumentación necesaria para trabajar en la nanoescala; y
(V)
los
nanosensores y los nanoactuadores. Las dos últimas áreas pueden ser
consideradas como extensiones de la nanoelectrónica, ya que su desarrollo se
basa en los avances que se logran en el área de los componentes electrónicos.
Aunque de parte de todo esto ya se ha hablado en los capítulos anteriores, aquí
deseamos resaltar cómo los conceptos e ideas se pueden traducir en la
tecnología con la que obtener nuevos productos y bienes de consumo.
Nos
centraremos en el paso de la nanociencia a la nanotecnología. Algunos de estos
productos ya están a nuestra disposición. ¡Bienvenidos al nanomercado!
Nanomateriales
De
todas las posibles aplicaciones de la nanotecnología, la fabricación de
nanomateriales es la que más rápidamente se ha hecho un hueco importante en las
industrias. A lo largo del siglo XX, se había logrado producir a escala
industrial muchos tipos de materiales, sin que importase tener un preciso
control de sus propiedades a escala nanométrica.
Sin
embargo, ya sabemos que cuando estos mismos materiales se sintetizan con tamaño
nanométrico suelen mostrar cambios apreciables en sus propiedades. Esto, que en
principio pudiera parecer un inconveniente, es el punto clave que hace que la
nanotecnología tenga sentido, ya que nos permite fabricar materiales con
propiedades diferentes con tan sólo controlar su tamaño a escala nanométrica.
Sabemos
que un material sintetizado con dimensiones nanométricas (lo que llamamos un
nanomaterial) tiene gran superficie relativa (relación entre superficie y
volumen), lo que permite aumentar su reactividad. Los nanomateriales también
empiezan a manifestar comportamientos mecánicos, ópticos, o eléctricos
diferentes a los de sus “hermanos mayores”.
En
otros casos se han sintetizado materiales completamente nuevos que son propios
de la nanoescala y no tienen equivalentes macroscópicos, como ocurre con los nanotubos
de carbono.
Otros
nanomateriales se caracterizan por tener en su interior oquedades o poros de
forma controlada y tamaño nanométrico. Nos referimos a los materiales
nanoporosos, que comienzan a ser utilizados para almacenar moléculas
peligrosas, para filtrar sustancias nocivas, etcétera.
También
se pueden usar para fabricar células de combustible y baterías alcalinas. En
algunos casos, las grandes superficies internas de estos materiales nanoporosos
permiten que más reactivos se anclen sobre las mismas, aumentando la velocidad
de las reacciones químicas, es decir, sirven de catalizadores. Los más
conocidos son las zeolitas, que se usan en el refinado del petróleo y de sus
derivados.
No
olvidemos mencionar que las nanopartículas también se pueden usar como
catalizadores en multitud de reacciones químicas. En otros muchos casos, se
necesita modificar las propiedades iniciales de un material de partida (llamado
material matriz) mediante la incorporación de pequeñas cantidades de ciertos
nanomateriales.
Por
ejemplo, un adhesivo convencional fabricado con cierto polímero puede cambiar
sus propiedades, como la resistencia a fractura o el punto de fusión, gracias a
la adición de pequeñas cantidades de nanopartículas. Esto también se logra
incluyendo nanotubos de carbono en fibras de vidrio, fibras de carbono u otros
materiales. Si las partículas que se añaden absorben la radiación ultravioleta
el material matriz cambiará sus propiedades ópticas, si dichas nanopartículas
son hidrófobas (repelen el agua) el material resultante no se mojará tan
fácilmente, y si poseen carácter bactericida el material tendrá utilidad en
aplicaciones sanitarias o quirúrgicas.
Por
lo tanto, los nanomateriales y nanopartículas permiten cambiar las propiedades
de materiales ya existentes. También se suele hablar de la “sintonización” a
voluntad de dichas propiedades.
No
debemos dejar de mencionar que la naturaleza es una fuente inagotable de
inspiración para diseñar nuevos materiales. Se dice que lo “nano” aprende de lo
“bio”. En muchos casos, entender el funcionamiento de un material creado por la
naturaleza, permite trasladar algunos conceptos a otro ámbito de aplicación.
Por ejemplo, una de las aplicaciones recientes de la nanotecnología ha
consistido en la fabricación de un plástico transparente tan resistente como el
acero.
Para
ello se ha imitado la estructura molecular de las conchas marinas, mediante
nanocapas de arcilla y de un polímero orgánico que actúa como pegamento (una
especie de novedoso “nanovelcro”).
El resultado es un material que, además de muy
resistente y transparente, es totalmente biodegradable y por tanto respetuoso
con el medioambiente. Sus aplicaciones, ya en desarrollo, incluyen la
fabricación de tejidos y trajes de seguridad, capas de blindaje para vehículos,
sustitutos del vidrio en ventanas o cúpulas, y diversos tipos de biosensores.
La tela de araña (a la que dedicamos un cuadro
específico anteriormente), las estructuras ramificadas de las patas de los
tritones, las estructuras hidrófobas de la flor de loto, etcétera, son ejemplos
que la naturaleza pone a nuestra disposición para diseñar nuevos materiales.
Nanoelectrónica
Como
se ha mencionado, la nanotecnología nos va a permitir fabricar dispositivos
electrónicos cada vez más diminutos y potentes, lo que ayudará a profundizar en
la implantación de lo que se ha dado en llamar “sociedad digital”.
En un futuro no muy lejano se integrarán en un
único dispositivo algunos equipos como teléfonos móviles, ordenadores,
reproductores de música y video, sintonizadores de radio y televisión, agendas,
sistemas de correo electrónico, sistemas de control remoto, sistemas de
localización GPS, sensores de temperatura corporal, etcétera.
Los
equipos dispondrán de pantallas flexibles, ultradelgadas, plegables u
enrollables, y su procesador y sistema de almacenamiento estarán ubicados en un
minúsculo rincón del aparato, por ejemplo el propio interruptor de encendido, o
se encontrarán distribuidos formando parte de la propia pantalla o carcasa.
Los teclados se integrarán en las pantallas,
que serán táctiles y obedecerán instrucciones vocales. Tampoco hay que
descartar que la pantalla, el procesador, y los sistemas de comunicaciones
lleguen a estar integradas en unas gafas o unas lentillas. ¿Estamos muy lejos
de todo esto? Es difícil dar fechas, pero se camina en esta dirección de forma
imparable. Las pantallas flexibles ya han salido al mercado de la telefonía
móvil a finales de 2007.
Si
escudriñamos lo que se hace en los laboratorios, encontramos más y más pistas
que nos indican cómo será el futuro. Por ejemplo, investigadores de la
universidad de Illinois en EE.UU. han sido capaces de fabricar una radio del tamaño
de un grano de arena usando nanotubos de carbono.
En
la Universidad de Washington, un equipo de científicos ha desarrollado unas
lentillas que integran circuitos electrónicos y diodos “leds” que nos muestran
una pantalla con información. El siguiente paso es que ¡la lentilla tenga
conectividad a Internet!
Estos
nuevos equipos traerán importantísimas consecuencias en todas las actividades
del ser humano. Sin embargo, la revolución en el ámbito de la nanoelectrónica
está ocurriendo de forma suave y continuada, ya que el ritmo de novedades que
surgen día tras día se mantiene constante desde hace muchos años. Ahora parece
normal que vivamos inmersos en ese continuo cambio. De nuevo, otra consecuencia
de la ley de Moore.
.
Nanobiotecnología
y nanomedicina
Sin
duda alguna, los seres humanos siempre han estado interesados por mejorar sus condiciones
de vida, erradicar enfermedades, ser más longevos y disfrutar de una vejez más
saludable.
En esta búsqueda por mejorar su salud, el
hombre hace esfuerzos increíbles por entender cómo funcionamos y cuáles son las
causas últimas de nuestras enfermedades, buscando remedios que a su vez sean
asequibles para una gran parte de la población mundial.
La
búsqueda de las causas de muchas enfermedades se está empezando a realizar a
nivel molecular, en la nanoescala, por lo que muchas herramientas de diagnóstico
y biosensores están íntimamente relacionadas con el desarrollo de instrumental
en el ámbito de la nanotecnología.
Ya
hemos visto cómo es posible recubrir nanopartículas que posean interesantes
propiedades magnéticas u ópticas con una cierta sustancia capaz de acoplarse a
una proteína o célula determinada, creando así marcadores que puedan viajar por
nuestro organismo.
También
se fabricarán pequeñísimos biosensores capaces de medir en tiempo real la
concentración de diferentes sustancias en nuestra sangre, permitiendo análisis
simultáneos de diversos parámetros y evitando críticos tiempos de espera.
La
nanotecnología no sólo permitirá detectar enfermedades con gran precisión, sino
que permitirá crear dispositivos capaces de combatirlas. En la actualidad se
está haciendo un gran esfuerzo en el tema de la “dispensación o liberación
controlada de fármacos”. En la actualidad los fármacos se incorporan al
torrente sanguíneo directamente o a través del sistema digestivo y se
distribuyen por todo el organismo.
Esta
forma de proceder es ineficiente ya que se desperdician fármacos en lugares
donde no se necesitan. Además, en ciertas ocasiones, estas sustancias pueden
resultar dañinas para ciertos tejidos u órganos que están sanos, produciendo
los efectos secundarios que encontramos listados en los prospectos de los
medicamentos. Un ejemplo bien conocido de este hecho son los desagradables
efectos de la quimioterapia usada para tratar ciertos tumores.
No
cabe duda, como ya se ha mostrado, que es mucho más inteligente diseñar un
fármaco que viaje por nuestro interior hasta el foco infeccioso o la región
enferma y libere allí, de forma local, la sustancia activa, minimizando los
efectos secundarios y permitiendo aumentar las dosis efectivas.
Estos fármacos, que actuarían como
“nanomisiles inteligentes”, podrían ser los precursores de los tan publicitados
y controvertidos nanorobots, capaces de detectar y tratar enfermedades de forma
autónoma y eficiente. Sin embargo, hoy por hoy, los nanorobots están más cercanos
al ámbito de la ciencia-ficción que a la investigación que se realiza en los
laboratorios.
8.1
Liberadores de fármacos, espermatozoides y virus
¿Qué
similitudes hay entre un liberador localizado de fármacos y un espermatozoide?
¿Y entre el liberador de fármacos y un virus? ¿Qué podemos aprender de la forma
en la que la naturaleza trabaja?
La
nanotecnología, aliada con la medicina, tiene también otras muchas
posibilidades. Por ejemplo, existen sistemas de esterilización de agua y aire
basados en nanofibras que repelen las bacterias y los virus con muchísima mayor
eficiencia que las membranas tradicionales.
Otras
interesantes aplicaciones de la nanomedicina se encuentran en fase de
investigación y desarrollo en laboratorios de todo el mundo. Por ejemplo,
grupos de investigadores del CSIC ya sintetizan nanomateriales para obtener
prótesis más resistentes y biocompatibles, y fabrican nanomateriales
biodegradables y bactericidas que sirven de soporte, de andamio, para el
crecimiento de huesos y cartílagos.
Recientemente, investigadores del MIT
en EE.UU. y de la Universidad de Hong Kong en China han sintetizado un gel de
péptidos nanoestructurados que permite detener hemorragias en pocos segundos,
lo que es muy interesante en intervenciones quirúrgicas. Una combinación de
polímeros y nanopartículas ha sido usada por investigadores del MIT en EE.UU.
para regenerar nervios previamente seccionados en ratones, abriendo la puerta a
la reparación de tejido nervioso y a la posible recuperación de parapléjicos y tetrapléjicos.
Sin
embargo, queda mucho tiempo antes de saber si estas investigaciones van a tener
las consecuencias que los científicos desean y la sociedad demanda.
Otro
de los campos a los que ya ha llegado la nanotecnología es el de la
alimentación, también relacionada con la salud de los seres humanos. La
implicación de lo “nano” en la producción de alimentos abarca diferentes fases
de la larga cadena que siguen los productos que comemos o bebemos desde su
origen hasta nuestra cocina.
La primera de dichas etapas es la producción
del alimento, y en este sentido se están desarrollando nanosensores para
controlar las condiciones del suelo agrícola y del agua de ríos y mares, y
también para seguir el crecimiento y grado de maduración de las cosechas.
En
cuanto al procesado de los alimentos, se trabaja sobre potenciadores del sabor,
y en el uso de nanopartículas para controlar la textura de los preparados
alimenticios. El envasado es otro aspecto importante, y la nanotecnología está
ayudando mucho en el desarrollo de envases más ligeros, aislantes y protectores
(de la corrosión y de la contaminación por bacterias u hongos).
También
se trabaja en el uso de nanopartículas fluorescentes unidas a anticuerpos, que
pueden detectar la presencia de aditivos químicos indeseados o la aparición de
procesos de descomposición durante el almacenamiento.
Además,
el uso de nanosensores biodegradables dentro del envase que contiene el
alimento permitirá controlar su temperatura y grado de humedad que han tenido
en todo momento.
Por otra parte, a mitad de camino entre la
alimentación y la farmacología se encuentra el campo de los suplementos
nutricionales, en el que se investiga sobre nanocontenedores con vitaminas que
mejoran la dosificación y absorción de las mismas, o nanopartículas que
aumenten la estabilidad de los nutrientes. Por tanto, antes o después
acabaremos “comiendo nanotecnología”.
Instrumentación,
sensores, actuadores, ensambladores...
Muchas
de las aplicaciones anteriores podrán llevarse a cabo si disponemos de las
herramientas adecuadas para mirar, trabajar y desenvolvernos en el nanomundo.
Esto significa que debemos diseñar equipamiento e instrumentación capaces de
medir las propiedades de sistemas nanométricos y de actuar sobre dichos
sistemas.
En
la actualidad contamos con los microscopios de sonda local y con potentes
microscopios electrónicos, de los que ya hemos hablado en el capítulo 2. Pero
si deseamos seguir profundizando en el mundo de la nanoescala, en el futuro
tendremos que desarrollar nuevas herramientas, más versátiles, que proporcionen
de forma instantánea más información y nos permitan interaccionar de forma más
directa con ese nanomundo.
Para
trabajar en la nanoescala nos debemos mover por ella sin problemas, y
necesitamos obtener información del entorno de cada punto observado. Como
ejemplo mencionaremos que investigadores del Instituto de Materiales de Japón
(NIMS) diseñaron ya hace 3 años un “nanotermómetro” de 10 micras de largo y 75
nm de ancho, basado en nanotubos de carbono rellenos de galio.
Dicho
nanotermómetro permitiría hacer un mapa local de las temperaturas de una
superficie, para poder monitorizar reacciones químicas, por ejemplo. En otras
ocasiones se necesitarán actuadores para poder ejecutar alguna acción concreta,
como por ejemplo, abrir una nanocápsula donde se almacena un fármaco.
Sin
embargo el mundo de aplicaciones de los sensores es prácticamente infinito con
algunas tan variadas como la medición de contaminantes, los sistemas de
detección de incendios en bosques, la determinación del grado de fermentación
de un vino durante su preparación, el análisis del estado del contenido de una
lata de conservas, la detección de explosivos, etcétera.
Con
mucho esfuerzo de diseño y mediante la combinación adecuada de sensores y
actuadores, tal vez algún día la nanotecnología nos permitirá fabricar el
denominado “ensamblador universal” que el ingeniero norteamericano K. E. Drexler
ya propuso hace más de veinte años y del que se habló en el capítulo 1.
Dicho
instrumento permitiría guiar de forma controlada una secuencia de reacciones
químicas mediante el posicionamiento de moléculas en los sitios adecuados. Ya
existen en la naturaleza ensambladores moleculares muy eficientes, como los
ribosomas de las células, que sintetizan proteínas con las instrucciones que
reciben a través de las cadenas de ácido ribonucleico mensajero o las enzimas
que polimerizan el ADN y con ello permiten la replicación de los seres vivos.
La idea de Drexler va más allá y propone
construir todo tipo de materiales usando esta aproximación, como si manejásemos
una especie de juego de construcción donde las piezas serían átomos y
moléculas: un verdadero ejemplo de tecnología de abajo hacia arriba
(“bottom-up”). Sin embargo, hoy por hoy, estas ideas están lejos de convertirse
en algo tangible y la propuesta del ensamblador universal es muy controvertida.
La
llegada de la nanotecnología: un proceso de varias etapas
A
juicio de multitud de expertos, tanto del ámbito académico como del mundo
empresarial, la nanotecnología se va a desarrollar en tres etapas. En una
primera etapa las industrias producirán objetos y dispositivos más y más
pequeños, siguiendo los esquemas convencionales (“top-down”) de fabricación.
Esta
etapa es la que estamos viviendo y cubre el periodo 2000-2020. En una segunda
etapa, entre los años 2010 y 2030, los procedimientos de tipo “bottom-up”
empezarán a utilizarse de manera más frecuente.
Finalmente,
los procesos de tipo “bottom-up” serán los que lideren la nueva forma de
fabricar en el resto del siglo XXI. Esto no significa que los métodos
convencionales dejen de existir, en realidad habrá una amalgama de sistemas de
producción tanto de tipo “bottom-up” como “topdown” que serán utilizados en
función del tipo de producto que se desee fabricar y, sobre todo, de los costes
de fabricación.
Es
evidente que si algo se puede fabricar de manera “bottom-up” pero con costes
elevadísimos, se seguirán usando métodos “top-down” para obtener el mismo
resultado. La nanotecnología, como cualquier desarrollo tecnológico, se usará
si es rentable frente a los procedimientos que ya existen, o si es capaz de
obtener productos nuevos con prestaciones inigualables para usos muy concretos.
Sin embargo, será necesario tener un concepto
amplio de rentabilidad económica, ya que se deben valorar los costes sociales y
medioambientales junto con los costes de la mano de obra, de las materias
primas, de publicidad y distribución, etcétera. Es decir se deben aplicar
modelos de valoración de costes que tengan en cuenta criterios orientados a la
consecución de un desarrollo sostenible.
Es
evidente que los dirigentes de todo el mundo han entendido que la
nanotecnología es un área de conocimiento que puede propiciar cambios
sustanciales en la industria y la sociedad.
De estos cambios se esperan nuevos y
atractivos productos y servicios que lleguen a nuestros hogares cambiando
nuestro modus vivendi. Sin embargo, cualquier desarrollo científico-tecnológico
necesita unas fuertes inversiones para poder ver sus frutos a medio-largo
plazo. Esta necesidad es algo que conocen bien todos los países que lideran la
economía mundial, y cada año se invierten varios miles de millones de euros en
promocionar la nanotecnología.
La
nanotecnología ya es una actividad con peso económico propio. La empresa Lux
Research estima, en su informe del año 2007 sobre el mercado mundial de la
nanotecnología, que dicho mercado alcanzó los 50.000 millones de dólares en
2006 y que llegará al billón de dólares en el año 2015. Nos encontramos ante un
crecimiento exponencial: ¡una ley de Moore de los negocios!
Este
suculento mercado beneficiará fundamentalmente a las empresas de aquellos
países que ahora están apostando más decididamente por el desarrollo de la
nanociencia y la nanotecnología.
De
compras por el nano-mercado
A
lo largo de este capítulo hemos hablado mucho de productos que están siendo
ideados, diseñados y desarrollados en laboratorios. Pero ¿cuántos de estos se
pueden adquirir en un supermercado? Aunque la nanotecnología está dando sus
primeros pasos, en nuestros mercados ya hay más de un millar de productos que
poseen componentes de origen nanotecnológico, según se desprende del Proyecto
de Nanotecnologías Emergentes.
Por
un lado, los procesadores más modernos que se venden en el mercado tienen ya
componentes con partes de dimensiones nanométricas, como se vio en el capítulo
6. Dichos procesadores se usan de forma cotidiana tanto en aplicaciones lúdicas
(consolas de videojuegos como la PS3 de Sony, reproductores de música y video
como los IPOD Nano de Apple, etc) como en una amplia gama de equipamiento
electrónico.
Sin
embargo, el área de la electrónica no es el que más “nanoproductos” está
introduciendo en el mercado. En la actualidad, nos encontramos en una etapa en
la que los nanomateriales y las nanopartículas son usadas con gran profusión y
se están incorporando a multitud de productos. En lo que resta de capítulo
vamos a mencionar unas cuantas de estas aplicaciones muy cercanas a nuestra
vida cotidiana.
La empresa OXONICA
(http://www.oxonica.com/) ha desarrollado un producto llamado Optisol, que
incorpora nanopartículas de dióxido de titanio, capaces de absorber la
radiación ultravioleta.
Este
producto se usa en protectores solares, sombras de ojos, maquillajes, etcétera.
La misma empresa comercializa otro producto (Envirox), basado en el uso de
nanopartículas de óxido de cerio, que actúa como catalizador en vehículos,
ahorrando combustible y reduciendo emisiones de dióxido de carbono, y también
ha puesto en el mercado nanopartículas metálicas recubiertas de óxido de
silicio para ser usadas como marcadores ópticos en estudios biológicos.
Los
anteriores ejemplos ilustran cómo una misma empresa produce nanomateriales
orientados a tres sectores de consumo totalmente diferentes. Hay cientos de
fabricantes consolidados en el mercado de nanopartículas y nanomateriales
(puede verse un listado de las mismas en http://nanoparticles. org/).
Entre estos, podemos mencionar, además de los ya citados: vidrios con
nanopartículas hidrófobas usadas en espejos, automóviles y gafas para evitar
que se empañen; ropa elaborada con textiles que incluyen también partículas
hidrófobas o bactericidas, de forma que repelen la humedad y tardan más tiempo
en ensuciarse; vidrios fabricados con nanopartículas que bloquean el paso de la
radiación ultravioleta y así evitan el calentamiento dentro de vehículos y
viviendas; materiales cerámicos que incluyen nanopartículas con capacidades
antibacterianas lo que les hace útiles para ser usados en aplicaciones
sanitarias y como depuradores de aire; frigoríficos y equipos de aire
acondicionados que tienen nanopartículas de plata (también antibacterianas) en
sus filtros; envases con nanopartículas hidrófobas y antibacterianas capaces de
retener mejor la humedad y de preservar por más tiempo los alimentos;
auriculares fabricados con polímeros con nanopartículas incrustadas capaces de
repeler la grasa y evitar que los dispositivos electrónicos se ensucien,
aumentando de esta forma su vida útil; pasta de dientes que incluye
nanopartículas que permiten una mejor fijación de flúor en el esmalte dental,
etcétera. La lista de productos empieza a ser muy extensa y lo más seguro es
que ya estemos usando algunos de estos productos sin caer en la cuenta de su
origen nanotecnológico.
Quizá
una de las áreas en la que la nanotecnología está teniendo más impacto es en el
mundo de los deportes, donde se usan materiales de tipo nanocompuestos (en los
que dos materiales diferentes se mezclan de diversas formas pero uno de ellos,
al menos, tiene dimensiones nanométricas).
Estos
materiales se utilizan para elaborar palos y pelotas de golf, bastones de
esquí, mástiles de barcos de vela, etcétera. En otras ocasiones las
nanopartículas se usan para otros fines, como en las pelotas de tenis, en las
que las nanopartículas arcillosas taponan las oquedades formadas entre los
polímeros, evitando la fuga del aire. Una idea similar se ha comenzado a aplicar
en los neumáticos de los vehículos, empezando, claro está, por los de Fórmula
1.
Los
nanotubos de carbono también han irrumpido en el mundo del deporte. Empresas
como Babolat (http://www.babolat.com/) fabrican raquetas de tenis que
incorporan estos nanomateriales, aligerando su peso a la vez que aumentan sus
prestaciones mecánicas.
Pero
quizás uno de los ejemplos más llamativos corresponde a la bicicleta diseñada
por la empresa suiza BMC, cuyo cuadro incorpora nanotubos de carbono y ¡pesa
menos de un kilogramo! Los nanotubos de carbono también se emplean en la
elaboración de palos de hockey, bates de béisbol, etcétera.
Además
de todas estas aplicaciones, las moléculas de C60 (fullerenos) ya se usan por
empresas como la japonesa Nanodesu para recubrir las bolas que se utilizan en
el juego de bolos porque disminuyen la fricción.
Una
curiosidad como “postre” de este paseo por el nano-mercado. Recientemente, un
restaurante de Nueva York ha entrado en el libro Guiness de los récords por
ofrecer el postre más caro del mundo: una delicia de varios chocolates que
incluye nanopartículas de oro.
Ya
existen casas comerciales dedicadas a producir este “nano-manjar” que, por
cierto, no sabemos si tiene un sabor a la altura de su precio.
Nano
y sociedad: implicaciones sociales de la tecnología
9
“Éticamente
no podríamos construir un ser vivo, pues no somos quién para crear vida, o
cambiarla, a partir de sistemas tecnológicos. Pero si yo pudiera hacerlo,
supongo que usaría el sistema ese de mover átomos y movería los grupos que
forman el ADN, recolocando las estructuras AGTU y formando distintas
combinaciones a placer, y así crear un ser vivo como yo quisiera. Haría lo
mismo para crear un virus, aunque sería muy peligroso”.
(Rebeca,
1º de Bachillerato, I.E.S. Rosa Chacel).
“Los
principales problemas derivados del uso de este tipo de tecnología podría ser
que esta se volviese contra nosotros y al ser tan pequeña e imperceptible
seamos incapaces de manejarla y detenerla”.
(Eva,
1º de Bachillerato, I.E.S. Marco Fabio Quintiliano).
“Nano”+”Bio”+”Info”+”Cogno”:
la convergencia NBIC
Los
cambios industriales más profundos que han tenido lugar en la historia han
estado ligados a la convergencia de tecnologías. Por lo general, las
tecnologías aisladas suelen tener cierto éxito para resolver problemas en
determinadas áreas, hasta que alcanzan cierta madurez y se estancan, generando
productos que son cada vez menos innovadores.
Por
ejemplo, la industria aeronáutica basada en el uso de motores de explosión y
hélices alcanzó gran perfección a mediados del siglo XX, pero no permitía ya
mejorar las prestaciones de los aviones debido a limitaciones de tipo físico.
Hubo que esperar a la llegada de los motores a reacción basados en conceptos y
tecnologías totalmente diferentes.
Cuando
dos o más disciplinas científico-tecnológicas interactúan entre sí pueden producir
una nueva tecnología resultante que permite avanzar de forma más rápida que con
la simple suma de conocimientos de cada una de ellas por separado.
En
estos casos se dice que “dos más dos suman más que cuatro” o que entre las
tecnologías ha habido “sinergias”. Por ejemplo, de la convergencia de la
electrónica, la teoría de la información y las telecomunicaciones ha surgido el
fenómeno de la sociedad de la información, la era digital, en la que todos
estamos conectados de forma instantánea y global.
La
misma nanotecnología también se puede considerar como una convergencia de
diferentes conocimientos y tecnologías que nos permiten explorar y entender el
nanomundo y obtener provecho de este conocimiento.
En
estos momentos asistimos a un nuevo proceso de convergencia tecnológica en el
que se están aglutinando conocimientos y metodologías que provienen de la
nanotecnología, la biotecnología, las omnipresentes tecnologías de la
información y telecomunicaciones y las llamadas ciencias cognitivas (que incluyen
las neurociencias).
Esta convergencia se ha denominado
“convergencia NBIC”. Estas siglas se refieren a la combinación de los prefijos
“nano”, “bio”, “info” y “cogno”. En cada una de estas ramas científico-técnicas
existen unas unidades de trabajo fundamentales que son bien conocidas: en el
área “nano” las unidades de trabajo son los átomos y las moléculas, en el área
“bio” las unidades son el gen y la proteína, en el área “info” la unidad son
los “bits” de información, y, finalmente, las neuronas son las unidades básicas
del área “cogno”. Como vemos, la convergencia NBIC abarca parte del macro-,
micro- y nano-mundo.
¿Qué
se espera de esta convergencia NBIC? El objetivo de la convergencia es producir
nano-bio-dispositivos, que incidan en nuestra salud, nos permitan interaccionar
mejor entre nosotros o con nuestro entorno y que generen información con la que
efectuar una adecuada toma de decisiones.
Explicaremos
esto con más detalle. Imaginemos que disponemos de pequeños dispositivos
bio-sensores que permiten hacer análisis y diagnósticos en tiempo real,
proporcionándonos información sobre nuestra salud (temperatura, tensión
arterial, niveles de colesterol y de azúcar en la sangre, presencia de ciertos
anticuerpos, conteo de glóbulos rojos, tensión ocular, etcétera).
Dichos
dispositivos podrán estar continuamente conectados con servicios médicos
distantes que efectuarían un mejor seguimiento y valoración del estado de salud de
las personas. En algunos casos, los tratamientos basados en dispensación
controlada de nanofármacos podrán ser activados de forma remota.
También
se sintetizarán nanomateriales con propiedades electromecánicas similares a las
de las fibras músculares con los que mejorar la motricidad de las personas, ya
sea a través de su incorporación en la masa muscular debilitada o mediante la
fabricación de prendas de vestir que actúen como refuerzo externo de los
músculos.
Del
mismo modo se fabricarán prótesis degradables e inteligentes capaces de
regenerar tejidos óseos y nerviosos, proporcionándonos información sobre dicho
proceso de generación y minimizando la posibilidad de rechazo y de infección.
Estos tejidos y prótesis permitirán recuperar
o mejorar la movilidad de personas que hayan sufrido traumatismos, lesiones de
médula espinal o padezcan enfermedades neurodegenerativas.
Se
fabricarán nanodispositivos (manipuladores, bisturís, microcámaras, sistemas de
posicionamiento y de realidad virtual) que permitirán efectuar intervenciones
quirúrgicas mucho menos agresivas y, si es necesario, de forma remota. Ahora
todo esto parece ciencia ficción pero algunas de estas ideas ya están siendo
exploradas en laboratorios de centros de investigación y de hospitales.
Una
visión más futurista de la convergencia NBIC predice que en un futuro los seres
humanos dispondremos de una pléyade de nanodispositivos (¿nano-robots?) que
restaurarán tejidos de forma más rápida que nuestros propios mecanismos
naturales, o que detectarán y repararán anomalías a nivel genético o metabólico
(por ejemplo, la aparición de tumores en sus primeras fases de formación).
Esto significa que sortearemos mejor las
lesiones y las enfermedades, con el consiguiente aumento de la esperanza de
vida. Pero ello, a su vez, puede ocasionar enormes problemas sociales ya que
los sistemas sanitarios de los países desarrollados y en vías de desarrollo no
podrán soportar los niveles asistenciales de una población envejecida (a no ser
que la telemedicina esté totalmente implantada).
Por
otro lado, dicho aumento de la esperanza de vida puede tener devastadoras
consecuencias ecológicas debido a la creciente necesidad de agua potable,
alimentos y recursos energéticos. Nuevamente tenemos los dos lados de la
moneda: detrás de los beneficios de la tecnología pueden esconderse ciertos
riesgos que hay que conocer y valorar para anticipar sus efectos y, actuando
con cautela, evitar o minimizar su impacto.
Llevada
al límite, la convergencia NBIC podría ser usada para mejorar nuestras
capacidades físicas y mentales, por lo que no se descarta la posibilidad de
llegar a convertirnos en “superhombres” mediante la aplicación de dispositivos
y máquinas basadas en el conocimiento NBIC. Esta visión radical, muy cercana a
la corriente intelectual desarrollada en la segunda mitad del siglo XX y
denominada “transhumanismo”, contrasta con otra propuesta menos conflictiva que
plantea el uso de la convergencia NBIC como herramienta para enfrentarse a
enfermedades como la diabetes, los distintos tipos de cáncer, alzhéimer,
parkinson u otras patologías neuro-degenerativas asociadas al envejecimiento,
así como mejorar la vida de invidentes, sordos, para y tetrapléjicos, personas
que han sufrido amputaciones, etcétera.
Nanotecnología,
sostenibilidad y responsabilidad
No
obstante, como todo en la vida, la nanotecnología presenta las dos caras de la
misma moneda. Acabamos de mencionar que la convergencia NBIC puede generar,
indirectamente, problemas de sostenibilidad debido al aumento de la población.
Además, la nanotecnología por si misma
puede tener otros impactos negativos. muchos de los productos que la
nanotecnología ha comenzado a producir están basados en nanopartículas y
nanomateriales. En algunos casos no se sabe cómo estos nuevos materiales
afectarán a nuestro entorno y nuestra salud.
Por
eso desde distintos organismos se está impulsando la realización de estudios
para poder establecer normas de uso y manipulación, reglamentos sobre niveles
de exposición en las fábricas, etcétera. Se dan más detalles en el cuadro
dedicado a nano-eco-toxicología.
EEE
9.2 La nanotecnología como impulsora del desarrollo sostenible
¿En
que áreas clave tendrá incidencia la nanotecnología para impulsar el desarrollo
sostenible? Según el Instituto Meridian de EE.UU., vinculado al Proyecto
Milenio de la Organización de las Naciones Unidas
(http://www.un.org/spanish/millenniumgoals/) la nanotecnología puede incidir en
las siguientes áreas: Almacenamiento, producción y conversión de energía.
La emisión de gases nocivos (como HCN) o que causan el calentamiento
del planeta (CO2) puede reducirse si mejoramos los catalizadores
(nanopartículas o materiales nanoporosos) o si usamos nuevas fuentes de energía
como pueden ser las pilas de combustible, células solares de nueva generación.
Tratamiento y descontaminación del agua
y de la atmósfera. Incluye tecnologías de remediación basadas en nanofiltrado,
mejora de los métodos de desalación, y control de calidad y seguridad ambiental
mediante redes de nanosensores.
Además
existen propuestas para utilizar nanopartículas, nanotubos de carbono o
sistemas nanoporosos, para encerrar el dióxido de carbono y otras moléculas
contaminantes. Por cierto, la gestión de recursos hídricos es de gran importancia
en países como España, donde el agua potable es un recurso cada vez más escaso
ante el proceso de desertización que sufre la Península Ibérica.
Diagnóstico
de enfermedades, administración de fármacos y monitorización de la salud. Este
tema ya ha sido tratado en capítulos anteriores. Mejora de la producción
agrícola, de las tecnologías de la alimentación (envasado, conservación,
etiquetado, etcétera) y el control de plagas.
Nuevos
materiales para la automoción y la construcción. El aligeramiento de ciertas
partes de vehículos y aviones mediante el uso de nanotubos de carbono o de
“aceros plásticos” reducirá el consumo de carburantes.
Nano-eco-toxicología:
“Hombre prevenido vale por dos”
La
generación de nuevos conocimientos científicos siempre es un hecho positivo, ya
que estos nos permiten ampliar nuestros horizontes, mirar más lejos. Por el
contrario, ya no es posible decir rotundamente lo mismo de las aplicaciones que
se dan a dicho bagaje científico.
Todos sabemos que el avance tecnológico
proporciona enormes mejoras en la calidad de vida de las personas, en su salud,
alimentación, vestimenta, vivienda, medios de transporte, educación, ocio,
etcétera. Sin embargo, también percibimos que hay otra cara en la moneda
tecnológica cuando leemos u oímos noticias sobre la contaminación de la
atmósfera, ríos y mares, el cambio climático, la rápida extinción de especies
biológicas, los accidentes de tráfico, la adicción de algunas personas a
videojuegos, la violencia que éstos pueden generar, etcétera.
Está claro que el uso de las tecnologías debe
regularse para hacer que el balance entre sus impactos positivos y negativos
sea siempre favorable a los primeros. Esta tarea de regulación corresponde a
organismos nacionales e internacionales, que deben estar asesorados por
expertos.
La
nanotecnología no es una excepción y presenta también esa doble cara: por un
lado, promete enormes y revolucionarias posibilidades y, por el otro, hay
algunos puntos oscuros que conviene conocer y aclarar antes de lanzarse a su
uso masivo. En diversos medios de comunicación se ha mencionado que los futuros
nano-robots podrían ser usados como sistemas espía, violando nuestra intimidad
o, mucho peor, como armas letales selectivas, destinadas a destruir personas o
grupos concretos.
Por
el contrario, la nanotecnología ha comenzado ya a introducirse en productos
concretos, de una forma mucho menos sofisticada pero muy práctica, mediante el
uso de nanopartículas y otros nanomateriales.
Durante
los últimos años ha surgido cierta preocupación por la proliferación del uso de
nanopartículas. Aunque las sustancias de las que están fabricadas las
nanopartículas son sobradamente conocidas, ya se sabe que la materia, cuando se
presenta con tamaño nanométrico muestra propiedades distintas de las que posee
a escala macroscópica. Esto es precisamente lo que abre ciertos interrogantes
sobre las nanopartículas.
Pongamos
un ejemplo. Supongamos que durante un proceso de fabricación determinado
tenemos que manipular una material sólido pulverizado. Sabemos que todas las
sustancias deben tener su correspondiente ficha de seguridad donde se nos avisa
de su forma de envasado y manipulación, sus efectos en caso de intoxicación,
etcétera. Sin embargo las pruebas de toxicidad de esa sustancia fueron hechas
para su formato “macroscópico”. Pero ¿qué ocurre si el material ha sido
pulverizado hasta que las partículas que lo forman tienen 50, 30, ó 10 nm de
diámetro?
La
respuesta es que realmente no conocemos sus efectos ya que la materia se
comporta de forma diferente en función de su tamaño. Es decir, no se puede
asegurar que una partícula de cierto material con 10 nm de diámetro no sea
tóxica porque el mismo material, cuando se presenta en forma de partícula de
1000 nm o más, no lo sea. Otro riesgo, las nanopartículas de oro son
aparentemente inocuas en el torrente sanguíneo por su pequeño tamaño, pero
¿quién puede asegurar que con el tiempo no se agregan entre ellas pudiendo
provocar un trombo?
La “nano-eco-toxicología” reúne un
conjunto de actividades que tienen como finalidad hacer que el desarrollo de
las nanotecnologías sea seguro para la salud de los empleados en contacto con
nanomateriales y nanodispositivos, y para la de los pacientes sometidos a
nano-tratamientos.
Del mismo modo las nanotecnologías deben ser respetuosas con el medio ambiente.
Para
lograr minimizar los riesgos de las nanotecnologías se deben hacer adecuadas y
precisas mediciones de dosis, impactos, etcétera, gracias a sofisticadas
medidas de las propiedades de estos nanomateriales. De ello se encarga la
nanometrología. Como resultado, se elaborarán normas, guías y procedimientos
que hagan que las nanotecnologías se incorporen a nuestras vidas de forma
segura.
Dado
que los nuevos nanomateriales podrían ser perniciosos para los humanos, los
demás seres vivos y para el medioambiente, es necesario seguir el principio de
precaución y hacer un estudio exhaustivo del impacto de sustancias ya conocidas
y de las nuevas que se sintetizan en los laboratorios cuando se presentan en
formato nanométrico.
Todos estos estudios se agrupan en lo que se
ha dado en llamar “Nano-eco-toxicología”. Los trabajos en nano-eco-toxicología
permitirán establecer en el futuro una normativa para que los productos basados
en nanotecnología puedan llegar a los mercados de forma que los consumidores
tengan garantías sobre su inocuidad para los seres vivos y el medioambiente.
Las actividades que se llevan a cabo dentro de
la nano-eco-toxicología están muy relacionadas con las técnicas de medición de
diferentes magnitudes en la nanoescala. La nanometrología se ocupa precisamente
de facilitar este tipo Nanociencia y Nanotecnología.
Entre la ciencia ficción del presente y la
tecnología del futuro de mediciones y de asegurar que se hacen de forma
correcta, siguiendo protocolos claros, en cualquier lugar del mundo. En la
actualidad diversos organismos japoneses, norteamericanos, chinos, y europeos
están realizando una intensa actividad en este campo. En España, los centros
que están involucrados en estos estudios sobre normativa y metrología son AENOR
(http://www.aenor.es) y el Centro Español de Metrología (http://www.cem.es),
respectivamente.
Gracias
a su actividad el “aterrizaje” de la nanotecnología en nuestras vidas será más
controlado, minimizando sus posibles efectos negativos Por todo esto, a pesar
de las promesas y ventajas sin límite que vienen de la mano de la
nanotecnología, existen investigadores, asociaciones, y organismos que reclaman
que su implantación se lleve a cabo de forma muy controlada, sopesando sus
ventajas y riesgos.
Las
administraciones públicas y muchas empresas han tenido en cuenta esta situación
y están tomando medidas para que la nanorevolución sea más segura y controlada,
transmitiendo confianza a los ciudadanos.
La
Comisión Europea estableció en 2008 un código de conducta para la investigación
responsable en los campos de las nanociencias y las nanotecnologías. Este
código incluye siete principios básicos que deben ser adoptados por los Estados
miembros de la Unión Europea. Las actividades de investigación deberían:
(I)
ser
comprensibles para el público;
(II)
ser
seguras, éticas y contribuir al desarrollo sostenible;
(III)
llevarse
a cabo de acuerdo con el principio de precaución, anticipando sus posibles
impactos;
(IV)
contar
con una gestión transparente y que garantice el derecho legítimo de acceso a la
información;
(V)
cumplir
las normas científicas más exigentes, incluyendo las buenas prácticas de
laboratorio;
(VI)
poseer
la máxima creatividad, flexibilidad y capacidad de planificación; y
(VII)
ser
asumidas de forma responsable por los investigadores y los centros de
investigación ante las repercusiones sociales, medioambientales y para la salud
humana que estas tengan.
“WEBOTECA”–Nanociencia
y Nanotecnología en la Red
A
continuación se muestran varios enlaces a páginas web en los que encontrar
información sobre diversos aspectos de la nanotecnología. Gran parte de estos
recursos corresponden a páginas escritas en inglés, el lenguaje internacional
en el entorno científico. ¡Buen viaje!
RECURSOS
EDUCATIVOS
The
Nanotechnology Group:
Grupo
de Educación Multidisciplinar de la Universidad de Wisconsin (EE.UU.):
Recursos
educativos de la Iniciativa Nacional de Nanotecnología de los EE.UU.:
Iniciativa
“Nano para niños” de la Rice University (EE.UU.):
Una
página con muchas explicaciones, imágenes y animaciones:
Portal
de recursos educativos de nanociencia y nanotecnología:
Otra
página web para niños, NANOLAND:
Exposición
NANO en la Ciudad de las Ciencias y la Industria de París (Francia):
http://www.cite-
ciences.fr/francais/ala_cite/expositions/nanotechnologies/index.html
Laboratorio
Virtual de Nanotecnología de la Universidad de Virginia (EE.UU):
Una
página web sobre nanotubos de carbono:
Concurso
NANO QUEST de Lego:
IMAGENES,
VIDEOS, ETCÉTERA
La
historia de la microscopía en imágenes:
Concurso
de imágenes científicas obtenidas por microscopios SMP (SPMAGE07):
Concurso
FOTCIENCIA:
NANOTEC
S.L. En la página web de esta empresa que fabrica microscopios SPM hay un
interesantebanco de imágenes:
Galería
de imágenes y animaciones sobre el funcionamiento de microscopios SPM de la
empresa Nanoscience Instruments:
Imágenes
y videos recopilados por el Centro de Nanotecnología de la NASA:
Potencias
de 10. Un sencillo e interesante paseo desde el nanomundo al universo:
Galerías
de imágenes e ideas futuristas sobre Nanomedicina en la Fundación Foresight:
NANOZONE.
Sitio web con interesantes presentaciones:
REDES
DE INVESTIGACION
La
Red Española de Nanotecnología (NANOSPAIN) es el punto de encuentro de casi 250
grupos de investigación españoles:
Plataforma
Tecnológica sobre Nanotecnología e Integración de Sistemas Inteligentes
(GENESIS):
Red
Europea de Nanotecnología:
NANOTECNOLOGIA
Y DESARROLLO SOSTENIBLE
El
Instituto Meridian estudia como aplicar las nanotecnologías en los países
pobres:
NANOTECNOLOGÍA,
CULTURA Y ARTE
Concurso
y galería NANOART 21:
REPOSITORIOS
DE INFORMACIÓN, NOTICIAS, BLOGS
Blog
“Creamos el futuro” de la Fundación Telefónica:
La
transcripción del famoso discurso de Feynman:
Otras
fuentes de información:
PARA
SABER MÁS...ACUDAMOS A SITIOS ESPECIALIZADOS
La
web NANOHUB, el mundo de la nano-simulación:
Grupo
de investigación sobre estructura de sistemas nanométricos:
Información
sobre el uso de nanopartículas:
También
la NASA investiga en nanotecnología:
Y
en la existencia de vida en otros planetas (Instituto de Astrobiología de la
NASA):
Un
sitio para la prospectiva en nanotecnología: Foresight Nanotech Institute:
Nanorobots
desarrollados por R. A. Freitas:
El
futuro de la nanomedicina según el Instituto de la Salud de USA (NIH):