“La ciencia es autocrática y no un proceso democrático”
Esta entrevista apareció originalmente en el número 1 (2007) de la revista CIC Network y la reproducimos en su integridad por su interés.
Hace más de 25 años que el microscopio de efecto túnel (STM) fue creado. El prestigioso científico suizo Heinrich Rohrer, premio Nobel de Física en 1986 junto a Gerd Binnig por el diseño del STM, ha aceptado la invitación de CIC Network para visitar Euskadi y concedernos una extensa entrevista en el Donostia International Physics Center.
Igor Campillo*, responsable de Proyectos y Comunicación de CIC nanoGUNE, habla con Heinrich Rohrer sobre las aplicaciones de su invento, sobre la nanotecnología y sobre su pasión por la ciencia.
En 1986 recibió el Premio Nobel de Física por el diseño del microscopio de efecto túnel. Algunos opinan que fue un logro más tecnológico que científico. ¿Cómo ve usted la relación entre la ciencia y la tecnología?
Hoy en día no hay ciencia sin tecnología, y tampoco hay tecnología sin ciencia. ¿Cuánta tecnología? Eso depende. Si observamos los experimentos de física de altas energías, se ve que la mayoría de los recursos —financieros, mano de obra— se utilizan para construir sofisticadas configuraciones tecnológicas.
Creo que ambas, tanto ciencia como tecnología, tienen tres partes distintas que mantienen un intercambio constante entre sí. En ciencia, la primera parte consiste en darse cuenta de la importancia de la pregunta y realizar la elección correcta. Nuestro conocimiento se está ampliando exponencialmente, y, por lo tanto, las preguntas también. Tenemos cada día más preguntas abiertas que responder y debemos realizar una selección. La segunda parte es la ejecución física, concebir un experimento específico.
¿Cómo nos gustaría resolverlo? Pasa lo mismo con las investigaciones teóricas, no hay diferencia. Esta es la parte central y la que más recursos consume. Y, por último, se necesitan conocimientos y capacidad de reflexión para comprender el significado y las consecuencias de lo que se ha medido, de lo que se ha calculado.
Esa comprensión tiene varios componentes: es preciso comprender, en primer lugar, si realmente se ha medido lo que se quería medir, comprender la importancia de las mediciones, hay que estar abierto a las sorpresas (son la cuna de los descubrimientos) y, finalmente, es preciso mirar más allá de lo que se ha conseguido y buscar nuevos horizontes.
Las sorpresas siempre suelen resultar algo molestas, porque no encajan en la imagen preconcebida que uno tiene sobre cómo deberían ser las cosas. Muchas veces existe la tentación de desechar datos o elementos que son molestos o que no encajan. Creo que ése es un gran error, porque se puede perder algo realmente importante.
Igualmente, la tecnología consta también de tres partes: la primera parte es comprender y establecer la base científica. La segunda parte es diseñar un proceso, un componente o un sistema (ésta es otra vez la parte que más recursos consume) y la tercera parte consiste en conseguir que esa tecnología funcione para una línea de producción.
Por lo tanto, es evidente que hay una estrecha relación entre la ciencia y la tecnología; algunas veces el componente primordial es el científico y, otras veces, el tecnológico.
Aunque puedo intuir su respuesta, ¿qué piensa sobre la distinción entre ciencia aplicada y ciencia básica?
Ésa no es una distinción significativa. Tengo un amigo, Richard Ernst —premio Nobel de Química en 1991— que dice que no hay ciencia básica y ciencia aplicada, sólo hay ciencia buena y mala. La ciencia que no tiene aplicación alguna no sirve para nada. No importa cuándo ni para qué se aplique, puede aplicarse en otro avance científico, en avances tecnológicos o, simplemente, en la construcción de cualquier aparato o artilugio.
Yo prefiero el término investigación científica en vez de ciencia básica o aplicada. Para mí la investigación científica, al contrario que el desarrollo, abre nuevos horizontes. Responder a una pregunta científica clave abre la puerta a nuevos campos con nuevas posibilidades y nuevos horizontes.
Es como subir una montaña. Cuando estás en la cima, has resuelto ese ‘problema’, pero un nuevo horizonte se abre ante ti con nuevas montañas, planicies y valles. Ésa es la característica principal de la investigación científica.
Sin embargo, el desarrollo es diferente. Resolver el problema no te lleva más allá, excepto si se trata del desarrollo de algunas técnicas que pueden luego utilizarse en otras áreas. Pero, en principio, el prototipo o el producto suponen el final del proceso.
Por regla general, el ciudadano de a pie conoce los resultados científicos, pero suele saber poco acerca del proceso científico en sí mismo. Permítame preguntarle sobre dicho proceso. ¿Puede resumir el proceso seguido hasta que diseñaron el microscopio de efecto túnel? ¿Cómo surgieron las ideas? ¿Cómo se sintieron cuando fracasaron en algún momento o cuando consiguieron lo que se proponían?
Las novedades suceden de una manera más natural de lo que uno piensa. Por supuesto no caen del cielo como la lluvia, también hay que trabajar duro, concentrarse y tener la mente y los ojos abiertos ante lo que sucede. Muchas veces he oído que simplemente tuvimos suerte. No hay duda de que la tuvimos, pero la suerte no es algo malo, no darse cuenta sí lo sería.
Las sensaciones de los científicos no son diferentes de las de los demás: sentimos satisfacción y felicidad cuando algo funciona, y decepción cuando no lo hace. La receta para el éxito es utilizar los errores en beneficio propio y aferrarse a las convicciones.
En lo que se refiere al proceso de diseño de STM, permítame volver sobre la respuesta dada a la primera pregunta. Yo quería hacer algo nuevo. Pensaba que ya había hecho mi contribución —en la medida de mis posibilidades— al campo de los fenómenos críticos, un tema candente en aquellos tiempos. La chispa que hizo que nos embarcáramos en una nueva línea de investigación fue el problema central de nuestros especialistas en tecnología que, en aquel momento, trabajaban en el llamado ordenador Josephson.
El problema estaba relacionado con las no homogeneidades de las finísimas uniones (de unos pocos nanómetros) del túnel de Josephson. Los dramáticos efectos que tenían estas no homogeneidades en la corriente del túnel (un factor de 5 a 10 por cada monocapa de óxido) suponían un caso especial de interés general. En muchos casos estas no homogeneidades dominaban incluso el proceso de miniaturización tanto en ciencia como en tecnología.
Esta fuerte dependencia de la corriente del túnel con respecto al grosor del óxido era un engorro para los técnicos, pero si se hacía bien, el efecto túnel podía valer como una prueba de extraordinaria sensibilidad para las no homogeneidades de distintos tipos. Utilizando el vacío, el aire o un líquido no conductor se incrementaría esta sensibilidad local por mil. Por lo tanto, las estructuras nanométricas como las no homogeneidades de una superficie plana, se convirtieron en el modelo para un cabezal de efecto túnel y, consecuentemente, para el microscopio de efecto túnel (STM).
Los cabezales más pequeños en aquella época eran cabezales especialmente preparados que se utilizaban en el microscopio de campo iónico (FIM). Necesitaban un ultra-alto vacío y tenían un radio de curvatura de unos 10 nm, dando como resultado una resolución de entre 2 y 3 nm. Ése era el rango de resolución para las estructuras, o incluso algo mejor, gracias al mejor microscopio electrónico de barrido de la época, pero el STM podía conseguir, además de una resolución similar, también información sobre las propiedades electrónicas. Y eso era lo suficientemente satisfactorio para nosotros como para poner en marcha la investigación.
No era la primera vez que se investigaba el efecto túnel…
Ivar Giaver había analizado anteriormente, a finales de los años 50, en el trabajo que le valió el Premio Nobel, el efecto túnel mediante vacío, aunque no en la configuración del STM con un cabezal, pero lo descartó por considerarlo muy difícil y utilizó en su lugar una capa muy fina de óxido entre los dos electrodos metálicos. Este método se convirtió en un estándar para todos los trabajos sobre el efecto túnel que se realizaron posteriormente.
Más tarde, después de la aparición del STM, algunos científicos dijeron que ellos también habían pensado en el efecto túnel en el vacío, pero que todos ellos lo descartaron pensando que no era posible. Y aunque parezca gracioso, se le pusieron objeciones al STM incluso después de varias publicaciones lo dieran a conocer, y algunos de los argumentos utilizados incluso invocaban el principio de Heisenberg.
Aunque nunca dudamos de que tendríamos éxito —de otro modo, ni siquiera habríamos empezado—, la primera y principal dificultad estaba en nuestras mentes: debíamos sobreponernos a la idea de que aquello tenía que ser algo muy difícil si nadie lo había hecho —ni siquiera intentado— hasta entonces, a pesar de que las perspectivas eran realmente excitantes. Éste suele ser uno de los mayores errores cuando te aventuras en un campo desconocido. El segundo error que cometimos fue elegir para ello el ultraalto vacío y la temperatura del helio líquido.
Los dos habíamos trabajado en el campo de la superconductividad y arrastrábamos el lastre de la espectroscopía de efecto túnel. Con este segundo error perdimos más de un año. Pero también teníamos algunas cosas a nuestro favor. La más importante fue que Gerd Binnig, mi compañero, se dio cuenta de que un cabezal que no esté preparado de forma especial termina en un único átomo y, por lo tanto, reproduce una resolución atómica. Además, sucedía que esos átomos de las aristas estaban algunas veces en una posición estable el tiempo suficiente para realizar una imagen en un vacío moderado e incluso, como resultó más tarde, a temperatura ambiente y en líquidos. Ahora, los cabezales estables se producen de manera regular mediante varias técnicas.
La segunda cuestión estaba relacionada con la interrupción de la fuerza piezoeléctrica en los platos piezocerámicos comerciales. Sorprendentemente, respondían suavemente a la aplicación de un voltaje por debajo del rango de los 10 pm.
Y en tercer lugar, desde el momento en que no podíamos operar en ultra-alto vacío y en temperaturas de helio líquido, decidimos suprimir todo el montaje cuidadosamente preparado en una cámara de ultra-alto vacío y utilizar, en su lugar, un desecador en un vacío moderado. A pesar de que el ruido era mucho mayor que el ruido ambiente o el que se produce en UHV, tuvimos éxito. Los primeros materiales y estructuras fueron simples y las interpretaciones de las mediciones directas.
Por lo tanto, ¿cuánto tiempo duró el proceso?
Fueron alrededor de dos años y medio. Pero de esos dos años y medio creo que casi dos años los pasamos construyendo este sofisticado equipo de ultra-alto vacío y temperatura de helio líquido. Una vez que conseguimos resolver eso, el resto fue bastante rápido. Está claro que hay prejuicios e interpretaciones erróneas que pueden jugar un papel importante en el proceso científico.
Sí, los prejuicios y también las presiones. Y si eres un experto, tu mayor problema siempre es que intentan presionarte. No ser un experto no te garantiza el éxito, pero serlo demasiado supone un auténtico obstáculo. Por lo tanto, es preciso conservar un poco de frescura. Las nuevas ideas surgen de los jóvenes. Basta con echar un vistazo a los premios Nobel, se ve claramente el trabajo que se ha hecho a una edad temprana. Es ahí cuando te mantienes ‘fresco’, porque eres joven y tu mente no está aún influenciada por la especialización. Y el segundo caso en que mantienes esa frescura es cuando cambias de campo de investigación; ése fue mi caso. Me pasé a otro campo y, por lo tanto, mi cerebro estaba libre de toda influencia.
Volviendo a 1981, ¿qué sintió cuando una revista puntera en el campo de la física rechazó publicar su primer artículo?
Estábamos realmente convencidos de que habíamos hecho un trabajo muy bueno y de que era una auténtica novedad. Por lo tanto, el rechazo no nos derrumbó.
Supongo que luego, cuando el STM salió realmente a la palestra, los evaluadores del trabajo no se sintieron muy orgullosos. Uno de los evaluadores dijo: “Es sabido que la corriente del túnel depende exponencialmente del vacío del túnel”. No se dio cuenta de que el comportamiento exponencial no se derivaba de una configuración de túnel de tipo metal-óxido-metal, sino de una configuración de túnel específica con un espacio ajustable que suponía un tipo de instrumentación completamente nueva.
El otro evaluador dijo: “Es fantástico! Pero es una aproximación instrumental, por lo que se trata de una decisión de política editorial si quieren publicar algo así o no”. Pensó que era extraordinario, pero no tuvo agallas para defenderlo y decir: “Aunque se trate de algo técnico, puede ser algo maravilloso”. Supongo que el primer evaluador sería un peso pesado en la materia; por lo tanto, rechazaron nuestra propuesta.
Siguiendo con este tema, ¿cómo ve usted el proceso de publicación de los artículos científicos? ¿Piensa que hay alternativas razonables y realizables al proceso de peer review o evaluación por pares?
Creo que es el único proceso razonable —haciendo un símil con lo que dijo Churchill: “la democracia es el menos malo de los sistemas que tenemos”—. Los evaluadores actúan como unos filtros que detienen la basura y garantizan un determinado nivel científico. Sus críticas y sugerencias pueden ser de gran valor para el autor. Al leer el informe del evaluador, uno se da cuenta enseguida si ha entendido o no el artículo y si lo ha tomado en serio, y también si trata de ayudarte o no. Desgraciadamente, algunos evaluadores demuestran más arrogancia que inteligencia.
Aunque parezca increíble, la arrogancia es uno de los mayores problemas en el elevado mundo académico de los científicos. Una buena razón que justifica la existencia del sistema de evaluación previa es que los trabajos científicos se juzgan a nivel mundial y no sólo local, tanto para su posterior publicación como para cualquier tipo de selección (por ejemplo, selección de propuestas científicas, reconocimientos, premios, etc). Eso convierte a la ciencia en una ‘empresa’ internacional, la más antigua de este tipo.
El STM ha inspirado unos 14.000 trabajos hasta ahora y hay unas 500 patentes relacionadas con varias formas de SPM (Scanning Probe Microscope).
¿Tuvo claro desde el principio la importancia real de sus investigaciones y descubrimientos?
Sabíamos que si teníamos éxito sería algo especial. Como he dicho antes, al principio, esperábamos alcanzar resoluciones de unos pocos nanómetros en propiedades estructurales y electrónicas. Pero la resolución atómica está intrínsecamente ligada a la aproximación por efecto túnel, si los cabezales son tan afilados como un átomo. Cuando conseguimos eso, fuimos conscientes de que estábamos en el camino adecuado para conseguir algo realmente extraordinario.
También vimos la posibilidad de manipular y modificar la materia en la escala de la resolución conseguida. Pero no previmos la enorme cantidad de aplicaciones posibles, en particular, de toda la gama de técnicas de proximidad posibles, cuyo representante más destacado es el microscopio de fuerza atómica (AFM). Tampoco adivinamos su rápida difusión, sobre todo teniendo en cuenta que incluso dos años después de que empezara a funcionar eran aún muy pocos los científicos que lo utilizaban.
Pero esa situación cambió tras los resultados de la estructura del Si(111) 7×7, un problema y un misterio que la ciencia de superficies llevaba muchos años sin poder resolver. La primera conferencia internacional sobre el STM, celebrada en Santiago de Compostela en el verano de 1986, unos meses antes de que se anunciara el Premio Nobel, congregó a alrededor de 200 personas. Yo pienso que los científicos constituyen un grupo en general conservador, que cuenta con un montón de chaqueteros entre sus filas. Incluso, algunos años más tarde, un miembro del comité de los premios Nobel me escribió algo así: “Estamos orgullosos de haber reconocido tan pronto la importancia del STM”. En pocas palabras: si algo finalmente consigue la aprobación de la opinión pública y no excede demasiado las expectativas creadas, entonces, ocurre como en la bolsa de valores bursátiles; los valores apenas suben, a veces incluso bajan.
¿Puede alguien ser consciente del impacto de un descubrimiento o de una nueva teoría o modelo en el momento de su lanzamiento?
Difícilmente. Por ejemplo, nadie sabía el impacto que iban a tener los transistores. Pasaron más de 16 años hasta que la mitad de los tubos de radio fueron reemplazados por transistores. Nadie pensó en la telefonía móvil, los ordenadores, los iPod, la comunicación por satélite y en tantas otras cosas 10 años antes de que aparecieran.
Nadie pensó que la electrónica, en forma de microelectrónica, llegaría a todos los rincones, ni que produciríamos alrededor de 1018 transistores al año, es decir, cerca de un millón por persona y día. Si hubiéramos previsto todo esto, habríamos sido profetas o, en caso contrario, no habría sido tan importante.
Le dieron el Premio Nobel muy poco tiempo después de su descubrimiento. Su discurso en los premios se titulaba ”Scanning tunnelling microscope, from birth to adolescence”. 20 años después, ¿se puede afirmar que el STM ha alcanzado la madurez?
Yo diría que sí. Tiene una amplia difusión en el mercado, lo utilizan muchísimas personas, todavía se puede mejorar y siempre surgirán nuevas aplicaciones. Pero lo que ha conseguido la madurez de forma más clara es la noción de que es posible posicionar objetos en el espacio, incluso objetos muy pequeños, con una precisión de 10 picómetros. En mi opinión, ése es el punto clave, dado que permite pensar qué se puede hacer exactamente con un nivel de posicionamiento tan preciso.
El descubrimiento del STM hace 25 años, seguido de la llegada del AFM 5 años después, son eventos cruciales en la historia de la nanociencia y de la nanotecnología. En realidad, siempre se menciona el STM cuando se habla de ellas. En su opinión, ¿qué otros sucesos cruciales hay detrás del avance de la nanotecnología?
Para mí el factor crucial es que la idea ha sido aceptada por mucha gente. La idea ha generado un gran entusiasmo entre muchos científicos. El entusiasmo y el compromiso de todos los científicos con la escala del nanómetro, el avance en los métodos computacionales como una herramienta teórica básica y la percepción —aunque a veces tímida— de que en ciencia, tecnología, industria y economía a gran escala tenía que llegar una nueva era una vez superada la microtecnología, son factores muy importantes.
Y, por último, aunque no por ello menos importante, no hay que olvidar las expectativas justificadas y la esperanza de que el impacto de la nanotecnología no será menor que el de la microtecnología.
Cada avance científico exige la colaboración de diferentes tipos de cerebros con diferentes ideas para ir siempre más allá. La invención o el descubrimiento mismo es una parte, pero dicho descubrimiento no es realmente importante si otros muchos científicos no lo hacen suyo y lo impulsan con nuevas ideas.
La nanotecnología puede significar distintas cosas para la gente. ¿Qué es exactamente la nanotecnología para usted?
Es difícil dar una definición que no sea ambigua, y tampoco sería muy útil. Yo tengo probablemente una visión un poco sesgada. Para mí, son tres los aspectos que reflejan mi comprensión y, sobre todo, mi predilección por el campo de lo nano. El primero de ellos es la capacidad de direccionamiento para el control individual y la modificación de estructuras, propiedades y funciones en la escala nanométrica, incluyendo su síntesis hasta formar estructuras de dimensiones micro o macroscópicas.
La nanoelectrónica, los nanosensores y los actuadores son claros ejemplos. El segundo aspecto es la preparación y el procesamiento de materiales específicos con nanodetalles específicas. Un ejemplo que considero muy interesante es la nanoresistencia o nanoaspereza, a través de la cual se repele el agua. La naturaleza utiliza este efecto en el llamado efecto loto. El agua no se repele si la superficie es totalmente plana, ni tampoco si la superficie es microáspera. Tiene que ser nanoáspera. Esto tiene que ver con la tensión de la superficie; una gota de agua no puede adaptarse a las rápidas variaciones del radio de curvatura debidas a la nanoaspereza.
Y, por último, el tercer aspecto es la capacidad de crear nanoestructuras en un lugar determinado y con una función precisa. En ciencia de materiales, se habla mucho de autoensamblado, y tenemos fotografías espectaculares de estructuras autoensambladas de superficies. Eso está muy bien, pero yo creo que la clave en nanomateriales es construir una determinada estructura, en un lugar determinado y para una función específica. Esto será muy difícil de conseguir, y es, desde mi punto de vista, el gran reto en la ciencia de los nanomateriales. Tomemos como ejemplo los nanotubos. Se dice a menudo que los nanotubos de carbono sustituirán a los cables de los circuitos electrónicos. Sin embargo, no sería lógico utilizar nanotubos si no se pueden construir de un punto A a un punto B, o si no es posible realizar una red de nanotubos y crear algunos componentes activos en los nodos de esa red, como la red neuronal del cerebro. A lo largo del proceso evolutivo de los organismos vivos, se han desarrollado algunas capacidades, tales como la síntesis química, la transformación eficiente de energía, la detección, la acción autónoma, las emisiones de señales y el procesamiento de la información.
Como mencionó Tom Knight, investigador principal en el Laboratorio de Inteligencia Artificial del MIT, “la biología es la nanotecnología que funciona”. ¿Está de acuerdo con esa afirmación?
Creo que es una afirmación trivial y no muy útil. Creo que todos sabemos que la naturaleza funciona a escala nanométrica. “La nanotecnología gobierna la naturaleza”, o “la naturaleza gobierna la nanotecnología”, como prefiera. La naturaleza —no la biología— es la nanotecnología que funciona. Gran parte de la nanotecnología está inspirada en las estrategias y en los procesos que utiliza la naturaleza. Pero la naturaleza tiene miles de millones de años. La simbiosis entre los procesos electrónicos, eléctricos, mecánicos y químicos será el reto principal de la nanociencia y de la nanotecnología. Entender los sistemas biológicos es ya suficientemente difícil; construir sistemas de semejante complejidad e incluso mucho más sencillos a partir de componentes creados por el ser humano, supone ir un paso más allá.
En efecto, decimos a menudo que la naturaleza resulta inspiradora para manipular la materia al nivel más básico. ¿Quizás esa manipulación nos hace sentir que somos Dios?
No. Dios entra a formar parte del juego cuando se crean los átomos o las leyes básicas de la física, no cuando simplemente se manipulan o se modifican pequeñas estructuras. Incluso aquí se puede preguntar uno: ¿es la naturaleza tal como es por las leyes básicas de la física? O también: ¿son las leyes básicas de la física tal y como son a fin de crear la naturaleza tal y como es? A través de esas preguntas se puede uno acercar al concepto del creador.
Tomemos, por ejemplo, el Big Bang. Para nosotros el Big Bang es el sustituto de algo que no sabemos y lo que sabemos hoy día es compatible con la imagen del Big Bang. Pero alguien ha tenido que crear de antemano el vacío en el que las fluctuaciones cuánticas han originado el Big Bang. Podemos retroceder desde el presente hasta el Big Bang, pero a partir del Big Bang no podemos ir más atrás en el tiempo.
¿Cuáles son, en su opinión, los pasos que debemos dar, los retos a los que debemos enfrentarnos, las cuestiones que es preciso abordar para conseguir que la nanotecnología funcione? En definitiva, ¿cómo podemos conseguir que lo nano sea realmente diferente?
Explotando el área de lo nano que es diferente de lo micro y de lo macro. Los materiales muestran propiedades diferentes (la nanoaspereza mencionada anteriormente es un ejemplo). En otros casos se trata de nuevas propiedades: por ejemplo, clusters donde el número de átomos de superficie es comparable a los átomos de la masa o cuando el número de átomos finales es comparable al de los átomos de superficie. Aparecen nuevos sistemas para la conductividad electrónica cuando el camino libre promedio o la longitud de onda del electrón, o ambos, se convierten en comparables o mayores que las dimensiones relevantes de los nano objetos. La espintrónica —el transporte selectivo de electrones dependiendo de su espín— puede ser una alternativa válida o un complemento al transporte ordinario en la conducción electrónica.
La escala nano está en la transición del comportamiento de la materia condensada al mundo atómico o molecular o, en otras palabras, en la transición entre la física clásica y la mecánica cuántica. Esta transición es realmente interesante, pero, a su vez, muy difícil de tratar. Sabemos cómo tratar teóricamente el estado sólido y también los átomos y las moléculas, pero es mucho más difícil tratar lo que está entre ellos. En la actualidad los métodos computacionales parecen ser la herramienta teórica adecuada.
Otro punto se refiere al nacimiento de la nanomecánica, entendiendo ésta como el movimiento de núcleos atómicos y la deformación de su ordenamiento. En realidad, la mecánica, la electricidad, la electrónica y los procesos químicos no se pueden separar en la escala nano. Eso es muy diferente de lo que ocurre en la escala micro y macro y la razón fundamental que explica el carácter interdisciplinar de la nanociencia y de la nanotecnología. La nanomecánica muestra muchos aspectos atractivos, entre los que destacan la velocidad y la sensibilidad. Las frecuencias mecánicas se incrementan en d-1 y la sensibilidad de masa en un sistema mecánico en vibración en d4, donde d es el tamaño del sistema. Los tiempos de difusión se incrementan en d2.
Finalmente, en la escala nano podemos y debemos utilizar nuevos conceptos, conceptos inspirados en la naturaleza, no copiados de ella. En la naturaleza todo surge en la escala nanométrica y es sintetizado hasta formas, movimientos, propiedades y procesos microscópicos o macroscópicos. Un bailaor de flamenco es una bonita nanocomposición. ¡Qué diferencia con los micro y macro robots, tan patosos!
Uno de los nuevos conceptos que utilizaremos será el contar en vez de medir, por ejemplo, contar los átomos de uno en uno en vez de medir un flujo de ellos. Otro concepto será medir algo débil utilizando para ello algo débil. En la naturaleza, un grupo específico de moléculas se reconoce mediante un detector específico; proceso al que se denomina reconocimiento molecular. En la actualidad, se prevé la construcción de sensores mecánicos con una sensibilidad de un zeptomol (10-21).
Pero incluso en los experimentos sencillos de STM, el átomo del extremo del cabezal del STM es capaz de detectar un átomo del objeto que se esté investigando.
Ésas son, por lo tanto, las diferencias entre el mundo de la escala micro y el de la escala nano.
Ésas y muchas más. El mundo de lo micro no es muy diferente del de lo macro. Nunca ha habido un concepto de la ‘microciencia’, lo que ha habido siempre es simplemente microtecnología. Pero en lo nano, se habla de nanociencia y de nanotecnología, y creo que eso mismo constituye ya una diferencia interesante. Todos los componentes de un circuito electrónico, como los transistores, las resistencias, las capacidades o las líneas de conexión, podían reducirse significativamente en escala desde lo macro a lo micro y a lo nano (en lo que a los transistores se refiere, pensamos en la miniaturización hasta los 50 nm). Los componentes eran cada vez más pequeños, pero no cambiaban su función. Ésa fue una de las razones fundamentales del tremendo éxito de la microelectrónica. Pero el mundo atómico y molecular no se pueden reducir en escala y en tamaño, y las funciones son diferentes para cada tipo molecular. El mundo de la nanotecnología es exigente y es discreto; por lo tanto, rara vez se puede reducir en escala.
Aún así, hay gente intentando encontrar leyes escalables desde la escala nano a la micro y a la macro; se les denomina leyes de escala.
Existen las leyes de reducción de la microelectrónica que solamente se pueden aplicar teniendo en cuenta el tamaño de los componentes; por ejemplo, los transistores pueden reducirse a escala nanométrica. Como he mencionado antes, el límite para ello es 50 nm.
Parece evidente que la nanotecnología tiene un enorme potencial y que ayudará a conseguir enormes ventajas. Pero hay nanoescépticos que señalan que no deberían cegarnos las nanopromesas: ¿puede haber costes imprevistos? ¿Serán los beneficios los que realmente deseamos?
Esta afirmación de los nanoescépticos no nos ayuda en nada. Todo el mundo puede hablar de posibles ‘imprevistos’ y de si realmente es lo que ‘deseamos’, si uno desconoce lo que realmente puede hacer y lo que puede necesitar algún día. Cuando nos aventuramos en lo que deseamos, puesto que se trata de un territorio inseguro, las decisiones deben tomarse paso a paso. Si no, nunca nos atreveríamos a acercarnos a algo nuevo, y mucho menos a hacerlo.
¿Cómo podríamos equilibrar las ventajas potenciales y las posibles desventajas?
Solamente cuando tengamos una clara noción de ambas, tanto de las ventajas como de las desventajas.
¿Piensa que los ciudadanos, en general, están bien informados sobre ciencia y tecnología? ¿Deberían participar los ciudadanos en las decisiones sobre el camino que debe seguir en el futuro la tecnología y, en particular, la nanotecnología?
Algunas personas pueden estar informadas sobre los avances científicos que se publican, pero, en general, parece que no es algo que preocupe demasiado a los ciudadanos, excepto si se trata de posibles amenazas. El proceso de transmisión de información puede y debe mejorarse, pero con sumo cuidado y no dando una información engañosa. De todos modos, lo que los ciudadanos deberían entender mucho mejor es que la ciencia es autocrática —más incluso que los negocios— y no un campo democrático. Las ideas nuevas surgen de mentes específicas y no a partir de un sistema de votos, y esas ideas las implementan quienes se atreven a hacerlo.
La ciencia como tal no tiene nada que ver con los valores —exceptuando por supuesto los valores científicos—, pero la explotación de los resultados científicos, sí. Y es aquí donde debería intervenir la democracia: los hábitos y las decisiones de compra de los ciudadanos son la gran fuerza que tienen en su mano. Lo que no se compra, no se hace. Se trata, por supuesto, de una especie de democracia implícita, ya que no se pregunta de antemano a los ciudadanos qué se debería producir, ya sean armas o comida. Pero de todos modos, tampoco parece que a la gente le importe demasiado eso, ya que no se opone seriamente a los gobiernos que, por ejemplo, afirman que las armas nucleares son necesarias o a los que no toman medidas serias contra el calentamiento global. Los ciudadanos, en cuanto consumidores, deben tomarse en serio su responsabilidad, pero no son ellos los que deben decidir qué camino debe seguir la ciencia.
Por lo tanto, el problema está en el desarrollo y la implementación, no en la ciencia misma.
El problema surge cuando se utiliza la ciencia para un objetivo determinado. Muchas veces la ciencia puede utilizarse para hacer ciencia, pero eso no supone un problema. Sin embargo, una vez que se sale del círculo científico y se utiliza la ciencia para un fin, un producto o un proceso determinado, es ahí donde los ciudadanos deben intervenir y tomar una decisión.
Otra cuestión distinta es si esas decisiones se toman de un modo democrático o no. Las decisiones en ciencia nunca se pueden tomar de una manera democrática, es preciso tomarlas basándose en juicios objetivos sobre la novedad científica o sobre el avance que supondrían.
Ha desarrollado gran parte de su carrera científica en una compañía privada, en IBM. ¿Se ha sentido alguna vez presionado por los intereses particulares de la compañía?
Puedo contarle cómo era en aquellos tiempos —quizás haya cambiado un poco desde entonces—, pero yo nunca me sentí presionado. Pude hacer lo que quise, pude publicar nuestras investigaciones en la publicación que consideraba más adecuada. Por supuesto, los resultados científicos que debían publicarse tuvieron que pasar por los filtros de la propiedad intelectual, pero eso no cambió nada para nosotros, nunca entorpeció nuestro trabajo.
En aquella época el lema central para las investigaciones de IBM era hacer “ciencia de primera clase y/o vital para IBM”. En la actualidad creo que el lema es, más bien, “investigar lo que sea vital para el futuro de IBM”. En general, la investigación libre de las grandes compañías ha desaparecido.
¿Quién puede llenar ese vacío? ¿Quién sino las universidades y las instituciones de investigación públicas como el CSIC en España? Lo paradójico es que, en lugar de eso, se presiona a estas instituciones para que realicen una cantidad cada vez mayor de trabajo de desarrollo industrial. Considero eso una interpretación errónea y peligrosa de la verdadera función de las universidades y de muchas instituciones públicas dedicadas a la investigación: hacer avanzar la ciencia en beneficio de los seres humanos, y formar y capacitar científicos que aporten sus conocimientos y su experiencia a la industria.
Es evidente que un científico debe ser productivo. Hoy, los científicos de todo el mundo están más presionados que nunca para conseguir diversos tipos de indicadores como, por ejemplo, publicar el mayor número posible de investigaciones en publicaciones prestigiosas, dirigir y liderar proyectos, conseguir patentes, tener incluso un espíritu empresarial. Parece que la imagen romántica del científico dedicándose únicamente a la ciencia ya no sirve. Aún así, dedicarse a la ciencia simplemente porque uno disfruta con ello ha resultado ser muy productivo a lo largo de la historia. Su historia personal es un ejemplo de ello. ¿Cree que es posible todavía dedicarse a la investigación científica con una cierta pasión ingenua, sencillamente porque uno disfruta con ello?
Creo que los propios científicos son responsables de una gran parte del trabajo administrativo. ¡Es increíble la cantidad de fricciones internas que pueden producir los científicos! El atractivo de trabajar en la investigación en un entorno empresarial es poder evitar una gran parte de toda esa fricción interna.
Esto funciona bastante bien si la compañía no es demasiado grande. Pero cuando la compañía es muy grande, la fricción interna también crece muy rápido. Una vez vi, hace unos 30 años, un estudio del número de patentes en relación con el tamaño de las compañías, tomando como muestra un rango razonable de compañías de diverso tamaño. El número de patentes crecía solamente en relación a la raíz cuadrada con respecto al tamaño de la compañía.
Muy interesante, ¿no? ¡Se pierde un montón de energía en las fricciones internas! Creo que los elementos clave en ciencia siguen siendo los mismos: la curiosidad, la fascinación, la pasión y la devoción son todavía las mayores fuerzas motoras de un científico. Éste sigue disfrutando de la envidiable situación de hacer de su hobby su profesión. En realidad, los artistas también.
Desgraciadamente, hemos introducido algunas prácticas no científicas en su trabajo. La competencia es una de ellas, si bien lo ‘mejor’ no implica siempre algo ‘bueno’. La vara de medir para valorar el resultado científico deben ser los estándares, no las clasificaciones; la capacidad y las ideas de uno, no las opiniones de los demás. La ciencia es un asunto demasiado serio para convertirla en una carrera.
Otra de las prácticas no científicas que se han colado es la utilización de promesas en lugar de razonamientos científicos sólidos y hechos objetivos. En primer lugar deberíamos preguntarnos siempre: ¿qué cambiaría si esto pudiera hacerse? Solamente entonces podemos empezar a hablar de recursos, planes de investigación y todo lo demás. Los indicadores de los logros científicos son realmente necesarios y valiosos, siempre que se analicen cuidadosamente.
Microscopio de efecto túnel
El microscopio de efecto túnel (STM, del inglés Scanning Tunneling Microscope) es un instrumento no óptico que se sirve de los principios de la mecánica cuántica para “ver” superficies, es decir, para obtener información relativa a su estructura. Una punta metálica afilada con un radio de unos pocos nanómetros (terminada en un átomo) se mueve sobre la superficie del material a estudiar. Se aplica entre la punta y la superficie, de manera que los electrones saltan por efecto túnel de la punta a la superficie (o de la superficie a la punta, dependiendo de la polaridad), lo que da lugar a una corriente eléctrica débil, cuyo valor depende exponencialmente de la distancia entre la punta y la muestra. Esta dependencia exponencial es, precisamente, la que permite registrar cambios de hasta 0,05 nm en la distancia punta-muestra. La toma de medidas y los movimientos de la punta se realizan mediante un dispositivo piezoeléctrico y son controlados por el usuario a través de las interfases correspondientes (por ejemplo, mediante un PC de sobremesa). En principio, para que se establezca una corriente túnel, la muestra ha de ser metálica o semiconductora.
El microscopio túnel de barrido ofrece imágenes de superficies con resolución atómica. Básicamente, el proceso consiste en realizar un barrido sobre la muestra a intensidad de corriente túnel constante. El sistema de control electrónico sube o baja la punta (o la muestra), de modo que sea capaz de medir la intensidad túnel prefijada, produciendo así una imagen fiel de la densidad electrónica de la superficie barrida y, por lo tanto, de la disposición geométrica de los átomos (topografía atómica). El microscopio de efecto túnel permite, además, manipular átomos individualmente para construir estructuras artificiales átomo a átomo. Para poder realizar la manipulación atómica hay que ajustar convenientemente parámetros como el campo eléctrico, la corriente túnel y las fuerzas de van der Waals entre la punta y la muestra. Las fuerzas de van der Waals se pueden ajustar variando la separación punta-muestra. La manipulación puede realizarse lateral y verticalmente. En la manipulación lateral, el átomo es movido con la punta por la superficie hasta la posición deseada, sin perder contacto con aquella. En la manipulación vertical, el átomo se recoge con la punta y es movido hasta la posición deseada, donde se vuelve a soltar. I. Campillo.
* Igor Campillo es actualmente director de la Fundación Euskampus
Edición realizada por César Tomé López a partir de materiales suministrados por CIC Network
Heinrich Rohrer: Priorizar la educación para garantizar la calidad, por P. M. Etxenike y J. M. Pitarke | Cuaderno de Cultura Científica
[…] pasado 14 de marzo publicamos aquí una entrevista de Igor Campillo a Heinrich Rohrer,dentro de la serie […]