28 junio 2009

Singularidad tecnológica

El avance en Wolfram Alpha es un primer paso para llegar a lo que los futurólogos llaman la Singularidad Tecnológica, singularidad que la humanidad estaría pronto a alcanzar, según Raymond Kurzweil :
Kurzweil predice que entre ahora y el 2050 la tecnología llegará a ser tan avanzada que los progresos en medicina permitirán a la gente ampliar radicalmente su esperanza de vida y la calidad de la misma. Los procesos de envejecimiento podrían en principio ralentizarse, más tarde detenerse y finalmente revertirse en cuanto esas nuevas tecnologías médicas estuvieran disponibles. Kurzweil sostiene que gran parte de esto será fruto de los avances en la nanotecnología médica, que permitirá que máquinas microscópicas viajen a lo largo de nuestro cuerpo reparando todo tipo de daños a nivel celular. Del mismo modo los avances tecnológicos en el mundo de los ordenadores darán lugar a máquinas cada vez más potentes, numerosas y baratas. Kurzweil predice que un ordenador pasará el test de Turing hacia el 2029, demostrando tener una mente (inteligencia, consciencia de sí mismo, riqueza emocional...) indistinguible de un ser humano. Este momento se ha denominado singularidad tecnológica. Kurzweil prevé que la primera inteligencia artificial será construida alrededor de una simulación por ordenador de un cerebro humano, lo que será posible gracias a un escáner guiado por nanobots. Una máquina dotada de inteligencia artificial podría realizar todas las tareas intelectuales humanas y sería emocional y autoconsciente. Kurzweil sostiene que esa IA llegará a ser, inevitablemente, más inteligente y poderosa que la de un ser humano. Sugiere que las IA mostrarán pensamiento moral y respeto a los humanos como sus ancestros. De acuerdo a sus predicciones, la línea entre humanos y máquinas se difuminará como parte de la evolución tecnológica. Los implantes cibernéticos mejorarán en gran medida al hombre, lo dotarán de nuevas habilidades físicas y cognitivas y le permitirán interactuar directamente con las máquinas.

Ahora bien, luego de leer estas predicciones, algunos se preguntarán quién es Ray Kurzweil... es bueno saberlo para poner atención a lo que está diciendo. Recurrí a Wikipedia para tener un acercamiento a su historia:

Raymond Kurzweil creció en el distrito de Queens de la ciudad de Nueva York. Sus padres eran judíos que emigraron de Austria justo antes del inicio de la Segunda Guerra Mundial.

En 1963, a la edad de quince años, creó su primer programa de ordenador. Diseñado para procesar datos estadísticos, el programa fue usado por los investigadores de IBM. Más adelante, en el instituto, creó un sofisticado programa de reconocimiento de patrones que analizaba las obras de compositores clásicos y sintetizaba sus propias canciones en un estilo similar.

Sus aptitudes para la invención eran tan impresionantes que en 1965 fue invitado a un programa de televisión de la CBS, I've got a secret (Tengo un secreto), donde interpretó una pieza para piano que había sido compuesta por un ordenador que él mismo había construido. Más tarde, ese mismo año, gano el primer premio en la International Science Fair for the invention y obtuvo también un reconocimiento en la Westinghouse Talent Search, donde fue felicitado personalmente por el presidente Lyndon B. Johnson.


En 1968, durante su segundo año en el MIT, Kurzweil inició una empresa que usaba un programa de ordenador para identificar alumnos entre escuelas e institutos. El programa, llamado "Select College Consulting Program", fue diseñado por él mismo y comparaba miles de diferentes criterios sobre cada colegio con las respuestas a un cuestionario enviado por cada alumno. Cuando cumplió 20 años vendió la empresa a Harcourt, Brace & World por 100.000 dólares, más royalties.

En 1974 Kurzweil inició su empresa más ambiciosa, Kurzweil Computer Products, Inc., para buscar una tecnología que fuese capaz de enseñar a los ordenadores a reconocer caracteres impresos de una amplia variedad de fuentes. Así, Raymond y sus colegas crearon el primer OCR "omni-font" (para cualquier tipo de letra). La aplicación más interesante de esta tecnología era la capacidad que otorgaba a un ordenador para leer en voz alta un documento impreso a personas ciegas. Esta idea introdujo nuevos obstáculos en su empresa, pues en esa época no existían todavía ni escáneres para ordenador, ni sintetizadores de voz. Así pues, además del primer OCR completo, la empresa de Kurzweil desarrolló finalmente el primer escáner para ordenador y el primer sintetizador texto-a-voz que, combinados, se erigían en la primera máquina lectora de documentos impresos para ciegos.

En 1980 Kurzweil vendió la empresa Kurzweil Computer Products a Xerox,[7]compañía que vio una oportunidad en estas tecnologías de volver al papel desde los medios electrónicos. Kurzweil siguió como consultor de Xerox hasta 1995. Kurzweil Computer Products llegó a ser una empresa subsidiaria de Xerox, conocida como ScanSoft durante mucho tiempo y ahora como Nuance. En la actualidad el OCR desarrollado por Kurzweil se llama Nuance Textbridge y ocupa una posición predominante en el mercado.

Kurzweil también inició la empresa Kurzweil Applied Intelligence para el desarrollo del reconocimiento de voz por ordenador. En 1987 se lanzó al mercado el primer sistema de reconocimiento de voz. Esta tecnología tenía importantes aplicaciones médicas, siendo utilizada en la actualidad en el diez por ciento de las salas de urgencias en Estados Unidos.

En 1996 Kurzweil fundó su cuarta empresa, Kurzweil Educational Systems, que rápidamente ocupó una posición predominante en el campo de la tecnología texto-a-voz. La empresa obtuvo importantes beneficios, gran parte de los cuales se trasladaron a la fundación privada de Kurzweil, que fomenta tecnologías para la ayuda a escolares ciegos.

En febrero de 2009 Kurzweil, en colaboración con Google y el NASA Ames Research Center, anunció la creación de la Universidad de la Singularidad. La misión de esta Universidad es: "montar, educar e inspirar un cuadro de líderes que se esfuercen en comprender y facilitar el desarrollo de tecnologías de avance exponencial, enfocar y guiar estas herramientas para dirigir los grandes retos de la humanidad". Usando el concepto de singularidad de Kurzweil como una fundación, la universidad planea proporcionar a sus alumnos las destrezas y herramientas para guiar el proceso de la singularidad "para el beneficio de la humanidad y su entorno".

Kurzweil es asesor en la Army Science Advisory Board, donde hizo unas declaraciones antes del congreso sobre nanotecnología y ve un potencial considerable en la ciencia para resolver grandes problemas globales, como la pobreza, la enfermedad, el cambio climático, etc.Nanotech Could Give Global Warming a Big Chill (July, 2006). Kurzweil predijo que los nanobots serán usados para tareas de mantenimiento del cuerpo humano y para aumentar la experanza de vida


Charla de Ray Kurzweil en TED sobre la Universidad de la Singularidad. Tiene subtitulos en Francés, Español o Inglés.

El punto es que estamos ante un inventor de verdad... no es un teórico, ni escritor de ciencia ficción que alucina el futuro... Para ahondar un poco en su teoría, me he permitido copiar la traducción de una entrevistaaparecida (con permiso) en H2blOg


Singularidad Tecnológica: Cuando los humanos trasciendan la biología (entrevista a Ray Kurzweil)

Entonces, ¿qué es la Singularidad?
Dentro de un cuarto de siglo, la inteligencia no-biológica va a igualar el alcance y la sutileza de la inteligencia humana. Luego la va a sobrepasar, debido a la aceleración continua de las tecnologías de información, así como la capacidad de las máquinas para compartir instantáneamente su conocimiento. Los nanobots inteligentes estarán profundamente integrados en nuestros cuerpos, nuestros cerebros, y nuestro entorno, venciendo la polución y la pobreza, brindando una longevidad enormemente extendida, una inmersión total a la realidad virtual incorporando todos los sentidos (como en “The Matrix”), la “teleportación de experiencias” (como en “Being John Malkovich”), y una inteligencia humana enormemente mejorada. El resultado será una íntima fusión entre las especies que crean la tecnología y el resultante proceso evolutivo tecnológico.

¿Y esa es la Singularidad?
No, sólo es la precursora. La inteligencia no-biológica tendrá acceso a su propio diseño y será capaz de mejorarse a sí misma en un ciclo de rediseño cada vez más rápido. Llegaremos a un punto donde el progreso tecnológico será tan rápido que la inteligencia humana no-mejorada será incapaz de seguirlo. Esto marcará la Singularidad.

¿Cuándo ocurrirá?
Establezco la fecha para la Singularidad –representando una transformación profunda y negativa en las aptitudes humanas– para el 2045. La inteligencia no-biológica creada para ese año va a ser mil millones de veces más poderosa que toda la inteligencia humana actual.

¿Esto por qué se llama Singularidad?
El término “Singularidad” es comparable al uso de este término por la comunidad de la física. Así como nos cuesta ver más allá del horizonte de sucesos de un agujero negro, también nos cuesta ver más allá del horizonte de sucesos de la Singularidad histórica. Con nuestros cerebros biológicos limitados, ¿cómo podemos imaginar lo que nuestra civilización futura, con su inteligencia multiplicada por billones, va a ser capaz de pensar y hacer? Sin embargo, al igual que podemos sacar conclusiones sobre la naturaleza de los agujeros negros por medio de nuestro pensamiento conceptual, a pesar de nunca haber estado dentro de uno, hoy nuestro pensamiento es lo suficientemente poderoso para tener entendimientos significativos sobre las implicaciones de la Singularidad. Eso fue lo que intenté hacer en mi libro.

Ok, desglosemos esto. Parece que una parte clave de su tesis es que podremos capturar la inteligencia de nuestros cerebros en una máquina.
Por supuesto.

¿Y cómo vamos a lograr eso?
Podemos desglosarlo aún más en requerimientos de hardware y software. En el libro, muestro cómo necesitamos aproximadamente 10 cuatrillones (1016) de cálculos por segundo (cps) para proporcionar un equivalente funcional a todas las regiones del cerebro. Algunos cálculos son más bajos que estos por un factor de 100. Los Supercomputadores ya hacen 100 billones (1014) cps, y llegarán a 1016 cps finalizando esta década. Varios supercomputadores con 1 cuatrillón cps ya están en planos, con dos esfuerzos japoneses que buscan 10 cuatrillones cps al finalizar la década. Para el 2020, van a estar disponibles 10 cuatrillones cps por aproximadamente mil dólares. Lograr el requerimiento de hardware era muy controversial en 1999, cuando salió mi último libro sobre este tema, La Era de las Máquinas Espirituales, pero ahora es una visión mucho más generalizada entre los observadores informados. Ahora la controversia está enfocada en los algoritmos.

¿Y cómo recrearemos los algoritmos de la inteligencia humana?
Para entender los principios de la inteligencia humana necesitamos hacerle ingeniería inversa al cerebro. Allí el progreso es mucho mayor de lo que cree la mayoría de la gente. El propósito espacial y temporal del escaneo del cerebro también está progresando a una velocidad exponencial, aproximadamente el doble cada año, como casi todo lo que tiene que ver con información. En la actualidad, las herramientas de escaneo pueden ver conexiones interneuronales individuales y observar cuando se activan en tiempo real. Ya tenemos modelos matemáticos y simulaciones de un par de docenas de regiones cerebrales, incluyendo el cerebelo, que consta de más de la mitad de las neuronas del cerebro. IBM está creando una simulación de alrededor de 10.000 neuronas corticales, incluyendo diez millones de conexiones. La primera versión va a estimular la actividad eléctrica, y una versión futura también estimulará la actividad química relevante. Para mediados de 2020, es prudente concluir que tendremos modelos efectivos para todo el cerebro.

¿Así que en ese momento vamos a copiar el cerebro humano a un supercomputador?
Más bien lo pondría de esta forma: en ese momento, entenderemos completamente los métodos del cerebro humano. Un beneficio será el entendimiento profundo de nosotros mismos, pero la implicación clave es que expandirá el juego de herramientas de técnicas que podemos aplicar para crear inteligencia artificial. Entonces podremos crear sistemas no-biológicos que igualan la inteligencia humana en aspectos en que los seres humanos son ahora superiores, por ejemplo, nuestras habilidades para reconocer patrones. Estos computadores superinteligentes podrán hacer cosas que nosotros no somos capaces de hacer, como compartir conocimiento y habilidades a velocidades electrónicas. Para el 2030, mil dólares de computación serán aproximadamente mil veces más poderosos que el cerebro humano. Hay que tener en cuenta que los computadores no serán organizados como objetos discretos como ocurre hoy. Habrá una red de computación profundamente integrada al entorno, a nuestros cuerpos y cerebros.

Usted mencionó el juego de herramientas de la IA. ¿No ha fracasado la IA en cumplir sus expectativas?
Hubo un ciclo de expansión y recesión de la IA durante los 80s, similar a lo que vimos recientemente en comercio electrónico y telecomunicaciones. Dichos ciclos son, por lo general, heraldos de verdaderas revoluciones; recuerde la expansión y recesión del ferrocarril en el siglo XIX. Pero así como la recesión de Internet no fue el final de Internet, el llamado “Invierno de la IA” tampoco es el fin de la historia de la IA. Hay cientos de aplicaciones de “IA limitada” (inteligencia de máquina que equivale o supera a la inteligencia humana para tareas específicas) perneando nuestra infraestructura moderna. Cada vez que envía un e-mail o hace una llamada por teléfono celular hay algoritmos inteligentes que gestionan la información. Programas de IA diagnostican electrocardiogramas con una exactitud que compite con la de los doctores, evalúan imágenes médicas, hacen volar y aterrizar aviones, guían armas autónomas inteligentes, toman decisiones automatizadas de inversión por cerca de un billón de dólares de fondos, y guían procesos industriales. Estos fueron proyectos de investigación hace un par de décadas. Si todo el software inteligente del mundo de repente dejara de funcionar, la civilización moderna llegaría gradualmente a su fin. Por supuesto, nuestros programas IA no son lo suficientemente inteligentes como para organizar dicha conspiración, al menos no por ahora.

¿Por qué mucha gente no ve estos cambios tan profundos que vienen?

Tengo la esperanza de que luego de que lean mi libro, lo harán. Pero la principal falla es la incapacidad de muchos observadores para pensar en términos exponenciales. La mayoría de las predicciones a largo plazo de lo que es técnicamente realizable en periodos de tiempo futuros dramáticamente subestiman el poder de desarrollos futuros porque están basadas en lo que yo llamo la visión “lineal intuitiva” de la historia en vez de la visión “histórica exponencial”. Mis modelos muestran que cada década estamos duplicando la velocidad en la que cambian los paradigmas. Por lo tanto el siglo XX estaba acelerando gradualmente el ritmo de progreso al final del siglo; por ende sus logros eran equivalentes a alrededor de veinte años de progreso al ritmo del año 2000. Lograremos otros veinte años de progreso dentro de catorce años (en el 2014), y luego lo mismo en tan solo siete años. Para expresar esto de otra forma, no experimentaremos cien años de avances tecnológicos en el siglo XXI; seremos testigos del orden de 20.000 años de progreso (de nuevo, cuando se mide frente al ritmo de progreso del año 2000), o alrededor de 1.000 veces más de lo que se logró en el siglo XX.
El crecimiento exponencial de las tecnologías de información es incluso mayor: estamos duplicando el poder de las tecnologías de información, al medirlas por precio-rendimiento, ancho de banda, capacidad y muchas otras variables de medición, aproximadamente cada año. Es un factor de mil en diez años, un millón en veinte años y mil millones en treinta años. Esto va mucho más lejos que la Ley de Moore (la reducción de transistores en un circuito integrado, permitiéndonos duplicar el precio-rendimiento de la electrónica cada año). La electrónica sólo es uno de los muchos ejemplos. Otro ejemplo es que nos tomó 14 años secuenciar el VIH; recientemente secuenciamos SRAS en sólo 31 días.

¿Así que esta aceleración de las tecnologías de información se aplica también a la biología?

Desde luego. No solo están acelerando sus capacidades los dispositivos de computación, como teléfonos celulares y cámaras digitales. A la larga todo lo importante estará compuesto esencialmente de tecnologías de información. Con la llegada de la manufacturación basada en nanotecnología en el 2020, podremos usar económicos dispositivos de mesa para manufacturar por demanda casi cualquier cosa a partir de materia prima muy económica usando procesos de información que reconfigurarán la materia y la energía a nivel molecular.
Supliremos nuestras necesidades energéticas usando paneles solares basados en nanotecnología que capturarán la energía en un .03 por ciento de la luz solar que cae en la Tierra, que es todo lo que necesitamos para suplir nuestras necesidades energéticas proyectadas al año 2030. Almacenaremos la energía en células de combustible altamente distribuidas.

Quiero llegar a biología y a nanotecnología, ¿pero cómo puede estar tan seguro de estos desarrollos? ¿El progreso técnico en proyectos específicos no es esencialmente impredecible?
Predecir proyectos específicos es, de hecho, irrealizable. Pero el resultado de todo el complejo y caótico proceso evolutivo del progreso tecnológico es predecible.
La gente asume intuitivamente que la velocidad de progreso actual continuará en futuros periodos. Incluso para aquellos que han estado lo suficiente para experimentar cómo el ritmo del cambio incrementa en el tiempo, una intuición sin examinar lo deja a uno con la impresión de que el cambio ocurre a la misma velocidad que hemos experimentado recientemente. Desde una perspectiva matemática, la razón por la que se da esto es porque una curva exponencial parece una línea recta cuando se examina por un instante. Como resultado, incluso comentaristas sofisticados, cuando consideran el futuro, usan típicamente la velocidad actual de cambio para determinar sus expectativas y la extrapolan al progreso dentro de los próximos diez o cien años. Por eso es que yo describo esa forma de mirar al futuro como una visión “lineal intuitiva”. Pero una valoración seria de la historia de la tecnología revela que el cambio tecnológico es exponencial. El crecimiento exponencial es una característica de cualquier proceso evolutivo, la tecnología es un ejemplo fundamental.
Como muestro en el libro, esto también se cumple en la evolución biológica. De hecho, la evolución tecnológica emerge de la evolución biológica. Pueden examinar los datos de formas distintas, en escalas de tiempo diferentes, y para una amplia variedad de tecnologías, que van desde la electrónica hasta la biológica, al igual que sus implicaciones, que van desde la cantidad de conocimiento humano hasta tamaño de la economía, y obtienen el mismo progreso exponencial, no lineal. En el libro tengo cerca de cuarenta gráficos de una amplia variedad de campos que muestran la naturaleza exponencial del progreso en medidas basadas en información. Para el precio-rendimiento de la computación, esto data desde hace casi un siglo, mucho antes de que naciera Gordon Moore.

¿No hay muchas predicciones sobre el futuro hechas en el pasado que ahora se ven un poco ridículas?
Sí, pueden citarse las malas predicciones de otros futuristas en épocas anteriores que soportan la noción de que no se pueden hacer predicciones confiables. En general, estos pronosticadores no estaban usando una metodología basada en una teoría sólida de la evolución tecnológica. Digo esto no sólo al mirar hacia atrás. He estado haciendo predicciones acertadas del futuro por más de veinte años basadas en estos modelos.

¿Pero cómo podemos saber con seguridad el progreso total de estas tecnologías si no podemos siquiera predecir el resultado de un proyecto único?

De hecho es muy difícil, o imposible, predecir qué compañía o producto va a ser exitoso. La misma dificultad se presenta al predecir qué estándar o diseño técnico va a prevalecer. Por ejemplo, ¿cómo le va a ir a los protocolos de comunicación wireless Wimax, CDMA y 3G dentro de unos cuantos años? Sin embargo, como lo expongo extensamente en el libro, encontramos tendencias exponenciales sorprendentemente precisas y predecibles al calcular la efectividad global (medidas con una variedad de métodos) de las tecnologías de información. Como mencioné anteriormente, la tecnología de la información va a ser finalmente la base de todo lo que tiene valor.


¿Pero eso cómo puede ser?
En otras áreas de la ciencia vemos ejemplos de resultados muy eficaces y confiables originados por la interacción de una cantidad de eventos impredecibles. Considere que predecir el recorrido de una sola molécula en un gas es esencialmente imposible, pero predecir las propiedades de todo el gas –compuesto por la interacción de muchas moléculas caóticas– puede hacerse con seguridad por medio de las leyes de la termodinámica. Análogamente, no es posible predecir con seguridad los resultados de un proyecto o una compañía específica, pero las capacidades globales de las tecnologías de la información, compuestas de muchas actividades caóticas, aún así pueden anticipadas con seguridad por medio de lo que yo llamo “la ley de los retornos acelerados”.

¿Cuál será el impacto de estos desarrollos?
Uno es la extensión radical de la vida.

Suena interesante. ¿Y eso cómo funciona?
En el libro, hablo sobre tres grandes revoluciones superpuestas que nombro con las letras “GNR”, que significan genética, nanotecnología y robótica. Cada una va a proporcionar un incremento dramático en la longevidad humana, entre otros impactos profundos. Actualmente estamos en la primera etapa de la revolución genética, también llamada biotecnología. La biotecnología está proporcionando los medios para efectivamente cambiar los genes: no sólo bebés diseñados, sino baby boomers diseñados. También vamos a poder rejuvenecer todos los tejidos y órganos del cuerpo al transformar las células de la piel en versiones jóvenes de cualquier otro tipo de célula. Actualmente, nuevos desarrollos en medicamentos están dando pasos claves para combatir la arteriosclerosis (causa de enfermedades del corazón), la formación de tumores cancerígenos, y el proceso metabólico subyacente en las principales enfermedades y procesos de envejecimiento. La revolución de la biotecnología ya está en su primera etapa y llegará a su cúspide en la segunda década de este siglo, en ese momento ya tendremos la capacidad de superar las más grandes enfermedades y ralentizar dramáticamente el proceso de envejecimiento.
Eso nos llevará a la revolución de la nanotecnología, que llegará a su madurez en el 2020. Con la nanotecnología, podremos ir más allá de los límites de la biología, y reemplazar el actual “cuerpo humano versión 1.0” con una versión 2.0 dramáticamente actualizada, que proporcionará una extensión radical de la vida.

¿Y cómo lo haría?
La “killer app” de la nanotecnología son los “nanobots”, robots del tamaño de las células de la sangre que pueden viajar por el flujo sanguíneo destruyendo patógenos, removiendo desechos, corrigiendo errores de ADN, y reversando el proceso de envejecimiento.

¿Cuerpo humano versión 2.0?
Ya estamos en la primera etapa de expandir y reemplazar cada uno de nuestros órganos, incluso porciones de nuestros cerebros con implantes neuronales, las versiones más recientes que permiten que los pacientes descarguen actualizaciones de software a sus implantes neuronales desde afuera de sus cuerpos. En el libro, describo cómo cada uno de nuestros órganos finalmente será reemplazado. Por ejemplo, los nanobots pueden entregarle a nuestro flujo sanguíneo un conjunto óptimo de todos los nutrientes, hormonas y otras sustancias que necesitemos, al igual que remover toxinas y productos de desecho. El tracto gastrointestinal podría reservarse para placeres culinarios en vez de las tediosas funciones biológicas de proporcionar nutrientes. Después de todo, de alguna manera ya hemos separado la comunicación y los aspectos placenteros del sexo de su función biológica.

¿Y la tercera revolución?
La revolución de la robótica, que en realidad se refiere a IA “fuerte”, o sea, inteligencia artificial a nivel humano, que discutimos anteriormente. Tendremos tanto el hardware como el software para recrear inteligencia humana a finales del 2020. Podremos mejorar estos métodos y aprovechar la velocidad, las capacidades de memoria y de compartir conocimiento de las máquinas.
Finalmente podremos escanear todos los detalles sobresalientes de nuestros cerebros desde el interior, usando miles de millones de nanobots en los capilares. Entonces podremos hacer un respaldo de la información. Usando manufactura basada en nanotecnología, podremos recrear el cerebro, o mejor aún reintegrarlo en un sustrato computacional más capaz.

¿Eso qué significa?
Nuestros cerebros biológicos usan señalizaciones químicas que transmiten información a sólo cientos de pies por segundo. La electrónica ya es millones de veces más rápida. En el libro, muestro cómo una pulgada cúbica de circuitos de nanotubos sería cientos de millones de veces más poderosa que el cerebro humano. Así que tendremos medios más poderosos para ejemplificar nuestra inteligencia que las velocidades extremadamente lentas de nuestras conexiones interneuronales.
¿Así que simplemente vamos a reemplazar nuestros cerebros biológicos por circuitos?
Veo que esto empezará con nanobots en nuestros cuerpos y cerebros. Los nanobots nos mantendrán saludables, nos proporcionarán una inmersión total a la realidad virtual desde el interior del sistema nervioso, nos proporcionarán comunicación directa de cerebro a cerebro por medio de Internet, y por otro lado, una inteligencia humana enormemente expandida. Pero recuerde que la inteligencia no-biológica está duplicando su capacidad cada año, mientras que nuestra inteligencia biológica prácticamente está fija en capacidad. Mientras nos acercamos al 2030, la porción no-biológica de nuestra inteligencia predominará.

Traducción: Hernán Ortiz

[La segunda parte de la entrevista se publicará pronto]


Artículos relacionados:
  1. Computadoras igualarán la inteligencia humana en 20 años Publicado el Febrero 21, 2008 por Antonio Trejo
  2. Especial H2blOg: La Singularidad Tecnológica

2 comentarios:

YACK dijo...

Totalmente de acuerdo en lo fundamental. La singularidad está a la vuelta de la esquina aunque la forma especifica en que tendrá lugar puede ser diferente.
De lo que no dudo es que estamos al final de un ciclo (el diseño biologico) y comenzando otro (el diseño inteligente) basado en la capacidad humana para diseñar y crear nuevas estructuras.
Saludos y enhorabuena por el Blog.

Unknown dijo...

Otra excelente texto al software es Text Speaker. Tiene Pronunciación personalizable, lee nada en la pantalla, e incluso se habla recordatorios. Las voces paquetes están bien de precio y suenan muy humano. Se convierte fácilmente blogs, correos electrónicos, libros electrónicos, y más a MP3 o para escuchar al instante.