Inteligencia Artificial. Segunda parte: ¿extinción o inmortalidad?
Aquí está la segunda parte de un artículo de la serie "Espera, ¿cómo puede ser todo esto una realidad, por qué todavía no se habla en todos los rincones?" En la serie anterior se supo que una explosión de intelecto se está arrastrando gradualmente hacia las personas del planeta Tierra, está tratando de desarrollarse desde una inteligencia humana estrechamente enfocada a universal y, finalmente, a una superinteligencia artificial.
La primera parte del artículo comenzó inocentemente. Discutimos la inteligencia artificial estrechamente enfocada (AII, que se especializa en resolver una tarea específica, como determinar rutas o jugar ajedrez), en nuestro mundo es mucho. Luego analizaron por qué es tan difícil desarrollar inteligencia artificial generalizada de la UII (AOI o AI, que, según las capacidades intelectuales, puede compararse con una persona para resolver cualquier tarea). Llegamos a la conclusión de que las tasas exponenciales de progreso tecnológico sugieren que la OII puede aparecer bastante pronto. Al final, decidimos que tan pronto como las máquinas alcanzaran el nivel humano de inteligencia, lo siguiente podría suceder inmediatamente:
Como de costumbre, miramos la pantalla, sin creer que la superinteligencia artificial (ICI, que es mucho más inteligente que cualquier persona) pueda aparecer en nuestras vidas, y seleccionando las emociones que reflejen mejor nuestra opinión sobre este tema.
Antes de profundizar en el ICI particular, recordemos lo que significa que una máquina sea súper inteligente.
La principal diferencia radica entre la superinteligencia rápida y la superinteligencia de alta calidad. A menudo, lo primero que se me ocurre al pensar en una computadora súper inteligente es que puede pensar mucho más rápido que una persona, millones de veces más rápido, y en cinco minutos comprenderá lo que una persona necesitaría durante diez años. ("¡Sé Kung Fu!")
Suena impresionante, y el ISI realmente debería pensar más rápido que cualquiera de las personas, pero la principal característica de separación será la calidad de su intelecto, y esta es otra muy distinta. Las personas son mucho más inteligentes que los monos, no porque piensen más rápido, sino porque los cerebros de las personas contienen una serie de ingeniosos módulos cognitivos que hacen representaciones lingüísticas complejas, planificación a largo plazo, pensamiento abstracto, que los monos no son capaces de hacer. Si dispersas el cerebro de un mono mil veces, no se volverá más inteligente que nosotros, incluso después de diez años, no podrá reunir un diseñador de acuerdo con las instrucciones, lo que una persona necesitaría un par de horas como máximo. Hay cosas que un mono nunca aprende, sin importar cuántas horas pase o qué tan rápido funcione su cerebro.
Además, el mono no sabe cuán humanamente, porque su cerebro simplemente no es capaz de darse cuenta de la existencia de otros mundos: el mono puede saber qué es un hombre y qué es un rascacielos, pero nunca entenderá que el rascacielos fue construido por la gente. En su mundo, todo pertenece a la naturaleza, y el macaco no solo no puede construir un rascacielos, sino que también comprende que cualquiera puede construirlo. Y este es el resultado de una pequeña diferencia en la calidad de la inteligencia.
En el esquema general del intelecto del que estamos hablando, o simplemente según los estándares de las criaturas biológicas, la diferencia en la calidad de la inteligencia del hombre y el mono es muy pequeña. En el artículo anterior colocamos habilidades cognitivas biológicas en la escalera:
Para comprender qué tan seria será una máquina súper inteligente, colóquela dos pasos por encima de la persona en esta escalera. Esta máquina puede ser bastante supramental, pero su superioridad sobre nuestras habilidades cognitivas será la misma que la nuestra: sobre los monos. Y como los chimpancés nunca comprenden que se puede construir un rascacielos, es posible que nunca entendamos lo que la máquina entenderá un par de pasos más, incluso si la máquina intenta explicárnoslo. Pero esto es sólo un par de pasos. El auto verá hormigas más inteligentes en nosotros; nos enseñará las cosas más simples desde su posición durante años, y estos intentos serán completamente inútiles.
El tipo de superinteligencia de la que hablaremos hoy se encuentra más allá de esta escalera. Esto es una explosión de inteligencia: cuando más inteligente se vuelve la máquina, más rápido puede aumentar su propia inteligencia, aumentando gradualmente el impulso. Tal máquina puede tomar años para superar a los chimpancés en inteligencia, pero tal vez un par de horas para superarnos por un par de pasos. A partir de este momento, la máquina ya puede saltar cuatro pasos cada segundo. Es por eso que debemos entender eso muy pronto después de la primera. noticias Cuando la máquina ha alcanzado el nivel de inteligencia humana, podemos enfrentar la realidad de la convivencia en la Tierra con algo que será mucho más alto que nosotros en esta escala (y tal vez millones de veces más alto):
Y como ya hemos establecido que es absolutamente inútil tratar de entender el poder de una máquina que está solo dos pasos por encima de nosotros, definamos de una vez por todas que no hay manera de entender qué hará ICI y cuáles serán las consecuencias para nosotros. Cualquiera que afirme lo contrario simplemente no entiende lo que significa la superinteligencia.
La evolución ha desarrollado lenta y gradualmente el cerebro biológico durante cientos de millones de años, y si los humanos creamos una máquina con superinteligencia, en cierto sentido, superaremos la evolución. O será parte de la evolución; tal vez la evolución sea tal que la inteligencia se desarrolle gradualmente hasta alcanzar un punto de inflexión que anuncia un nuevo futuro para todos los seres vivos:
Por razones que discutiremos más adelante, una gran parte de la comunidad científica cree que la pregunta no es si llegamos a este punto de inflexión, sino cuándo.
¿Dónde estamos después de esto?
Creo que nadie en este mundo, ni yo, ni tú, podemos decir qué pasa cuando llegamos a un punto de inflexión. El filósofo y teórico líder de Oxford, AI Nick Bostrom, cree que podemos reducir todos los resultados posibles a dos grandes categorías.
Primero, mirando historiaSabemos lo siguiente acerca de la vida: las especies aparecen, existen durante un cierto tiempo, y luego inevitablemente caen del equilibrio del equilibrio de la vida y desaparecen.
"Todas las especies se están extinguiendo" era una regla tan confiable en la historia como "todas las personas mueren algún día". 99,9% de las especies han caído de un registro de vida, y está claro que si una determinada especie permanece en este registro demasiado tiempo, una ráfaga de viento natural o un asteroide repentino dará vuelta este registro al revés. Bostrom llama extinción al estado de un atractor, un lugar donde todas las especies se equilibran, para no caer donde ninguna especie ha regresado todavía.
Y aunque la mayoría de los científicos reconocen que ISI tendrá la capacidad de condenar a las personas a la extinción, muchos también creen que el uso de las capacidades del ISI permitirá que los individuos (y las especies en general) alcancen el segundo estado de la inmortalidad de las especies atractivas. Bostrom cree que la inmortalidad de la especie es el mismo atractivo que la extinción de la especie, es decir, si llegamos a esto, estaremos condenados a la existencia eterna. Por lo tanto, incluso si todas las especies cayeron de este palo a la reserva de extinción antes del día actual, Bostrom cree que el registro tiene dos lados, y simplemente no existe tal inteligencia en la Tierra que entienda cómo caer al otro lado.
Si Bostrom y los demás tienen razón, y, a juzgar por toda la información que tenemos disponible, es muy posible que debamos tomar dos datos muy impactantes:
La aparición de ISI por primera vez en la historia abrirá la posibilidad de que la especie alcance la inmortalidad y se salga del ciclo fatal de la extinción.
La aparición de ICI tendrá un impacto tan inimaginable que es probable que empuje a la humanidad desde este registro en una u otra dirección.
Es posible que cuando la evolución llegue a un punto de inflexión, siempre ponga fin a la relación de las personas con el flujo de la vida y cree un mundo nuevo, con personas o sin ellas.
Esto lleva a una pregunta interesante que solo una persona perezosa no haría: ¿cuándo llegaremos a este punto de inflexión y dónde nos determinará? Nadie en el mundo sabe la respuesta a esta doble pregunta, pero muchas personas inteligentes han estado tratando de entender esto durante décadas. En el resto del artículo descubriremos a qué han llegado.
Comenzamos con la primera parte de esta pregunta: ¿cuándo debemos alcanzar un punto de inflexión? En otras palabras: ¿cuánto tiempo queda hasta que la primera máquina llegue a la superinteligencia?
Las opiniones varían de un caso a otro. Muchos, entre ellos el profesor Vernor Vinge, el científico Ben Herzl, cofundador de Sun Microsystems Bill Joy, el futurólogo Ray Kurzweil, estuvieron de acuerdo con el experto en aprendizaje automático Jeremy Howard cuando presentó el siguiente cuadro en TED Talk:
Estas personas comparten la opinión de que el ISI aparecerá pronto: este crecimiento exponencial, que hoy nos parece lento, estallará literalmente en las próximas décadas.
Otros, como el cofundador de Microsoft, Paul Allen, el psicólogo investigador Gary Marcus, el experto en computación Ernest Davis y el tecnopreneur Mitch Kapor creen que los pensadores como Kurzweil subestiman seriamente la magnitud del problema y piensan que no estamos tan cerca de un punto de inflexión.
Kurzweil Camp se opone a que la única subestimación que se lleva a cabo es ignorar el crecimiento exponencial, y usted puede comparar a quienes dudan de aquellos que observaron el lento crecimiento de Internet en 1985 y afirmaron que no afectaría al mundo en el futuro cercano.
Los "dudosos" pueden defenderse, diciendo que el progreso es más difícil de hacer en cada paso posterior cuando se trata del desarrollo exponencial del intelecto, que nivela la naturaleza exponencial típica del progreso tecnológico. Y así sucesivamente.
El tercer campo, en el que se encuentra Nick Bostrom, no está de acuerdo con el primero ni con el segundo, argumentando que a) todo esto puede suceder absolutamente en el futuro cercano; y b) no hay garantías de que esto suceda o que dure más tiempo.
Otros, como el filósofo Hubert Dreyfus, creen que estos tres grupos creen ingenuamente que habrá un punto de inflexión en general, y que, probablemente, nunca llegaremos al ISI.
¿Qué pasa cuando juntamos todas estas opiniones?
En 2013, Bostrom realizó una encuesta en la que entrevistó a cientos de expertos en el campo de la inteligencia artificial durante una serie de conferencias sobre el siguiente tema: "¿Cuál es su predicción para lograr un OIH a nivel humano?" - porcentaje de probabilidad), una suposición realista (el año en el que tenemos el 10 de probabilidad de OII) y una suposición de confianza (el año más temprano en el que aparece la OII con la probabilidad del 50-porcentaje). Aquí están los resultados:
* Año medio optimista (10%): 2022
* Promedio de año realista (50%): 2040
* Año pesimista medio (90%): 2075
Los encuestados promedio creen que en los años 25 tendremos más AIS que no. El 90 de probabilidad de ocurrencia de OII por parte de 2075 significa que si todavía eres muy joven, es muy probable que esto ocurra en tu vida.
Un estudio separado recientemente realizado por James Barrat (el autor del aclamado y muy buen libro, Our Last Invention, "extractos del cual Llamé la atención de los lectores. Hi-News.ru) y Ben Herzel en la conferencia anual dedicada a OII, AGI Conference, simplemente mostraron las opiniones de la gente con respecto al año en que llegamos a OII: a 2030, 2050, 2100, más tarde o nunca. Aquí están los resultados:
* 2030: 42% de encuestados
* 2050: 25%
* 2100: 20%
Después de 2100: 10%
Nunca: 2%
Parece que los resultados de Bostrom. En la encuesta de Barrat, más de dos tercios de los encuestados creen que la OII estará aquí para el año 2050, y menos de la mitad cree que la OII aparecerá en los próximos años 15. También es sorprendente que solo el 2% de los encuestados, en principio, no vea AIS en nuestro futuro.
Pero CSI no es un punto de inflexión, como ICI. ¿Cuándo, según los expertos, tendremos ICI?
Bostrom entrevistó a expertos cuando llegamos al ISI: a) dos años después de alcanzar el AIS (es decir, casi instantáneamente debido a una explosión de inteligencia); b) en años 30. Resultados?
La vista promedio es que la transición rápida de OII a ISI con el 10 de probabilidad porcentual, pero en 30 años o menos, ocurrirá con la probabilidad de 75 porcentual.
A partir de estos datos, no sabemos a qué fecha los encuestados llamarían el 50 de probabilidad de ocurrencia de ICI, pero en base a las dos respuestas anteriores, supongamos que son años 20. Es decir, los principales expertos del mundo en el campo de la IA creen que el punto de inflexión se producirá en el año 2060 (el OII aparecerá en el año 2040 + tomará años para que el 20 pase de la OII al IIS).
Por supuesto, todas las estadísticas anteriores son especulativas y simplemente representan la opinión de expertos en el campo de la inteligencia artificial, pero también indican que la mayoría de las personas involucradas están de acuerdo en que, por el 2060, es probable que llegue el ISI. En pocos años 45.
Pasamos a la segunda pregunta. Cuando alcancemos un punto de inflexión, ¿qué lado de la elección fatal nos determinará?
La superinteligencia será poderosa, y la pregunta crítica para nosotros será la siguiente:
¿Quién o qué controlará esta fuerza y cuál será su motivación?
La respuesta a esta pregunta dependerá de si el ISI recibe un desarrollo increíblemente poderoso, un desarrollo inmensamente aterrador o algo entre estas dos opciones.
Por supuesto, la comunidad de expertos está tratando de responder a estas preguntas. La encuesta de Bostroma analizó la probabilidad de las posibles consecuencias del impacto de la OII en la humanidad, y resultó que con la probabilidad del 52, todo va muy bien y con la probabilidad del 31, que todo va bien o mal. La encuesta adjunta al final de la parte anterior de este tema, realizada entre ustedes, queridos lectores de Hi-News, mostró los mismos resultados. Para un resultado relativamente neutral, la probabilidad fue solo de 17%. En otras palabras, todos creemos que la aparición de OII será un gran evento. También vale la pena señalar que esta encuesta se refiere a la aparición de OII; en el caso de ICI, el porcentaje de neutralidad será menor.
Antes de profundizar más en el discurso sobre los aspectos positivos y negativos de la pregunta, combinemos ambas partes de la pregunta: “¿cuándo sucederá esto?” ¿Y “bueno o malo?” En una tabla que cubra las opiniones de la mayoría de los expertos.
Hablaremos sobre el campamento principal en un minuto, pero primero decida sobre su posición. Lo más probable es que esté en el mismo lugar que yo, antes de comenzar a tratar este tema. Hay varias razones por las que las personas generalmente no piensan en este tema:
* Como se mencionó en la primera parte, las películas confundieron seriamente a la gente y los hechos, presentando escenarios poco realistas con inteligencia artificial, lo que llevó al hecho de que no deberíamos tomar en serio a AI. James Barratt comparó esta situación con el hecho de que los Centros para el Control de Enfermedades emitieron una seria advertencia sobre los vampiros en nuestro futuro.
* Debido a los llamados sesgos cognitivos, es muy difícil para nosotros creer en la realidad de algo, siempre y cuando no tengamos evidencia. Se puede imaginar con confianza a los científicos informáticos de 1988 del año, quienes discutían regularmente las consecuencias de largo alcance de la aparición de Internet y lo que podría llegar a ser, pero la gente casi no creía que cambiaría sus vidas hasta que esto sucediera. Las computadoras simplemente no sabían cómo hacer esto en 1988, y la gente solo miraba sus computadoras y pensaba: “¿En serio? ¿Es esto lo que cambiará el mundo? Su imaginación estaba limitada por lo que su experiencia personal les enseñaba, sabían lo que era una computadora y era difícil imaginar de qué sería capaz la computadora en el futuro. Lo mismo está pasando ahora con la IA. Escuchamos que se convertirá en algo serio, pero como todavía no lo hemos confrontado cara a cara y, en general, vemos manifestaciones más bien débiles de IA en nuestro mundo moderno, es bastante difícil para nosotros creer que cambiará radicalmente nuestra vida. Es contra estos prejuicios que numerosos expertos de todos los campos, así como personas interesadas, están tratando de llamar nuestra atención a través del ruido del egocentrismo colectivo cotidiano.
* Incluso si creemos todo esto, ¿cuántas veces has pensado en el hecho de que pasarás el resto de la eternidad en la no existencia? Un poco de acuerdo. Incluso si este hecho es mucho más importante que lo que haces todos los días. Esto se debe a que nuestros cerebros generalmente se enfocan en pequeñas cosas cotidianas, sin importar cuán locas sean las situaciones a largo plazo. Simplemente, estamos tan dispuestos.
Uno de los objetivos de este artículo es sacarte del campamento llamado "Me gusta pensar en otras cosas" y poner a expertos en el campamento, incluso si te paras en la encrucijada entre las dos líneas punteadas en la casilla de arriba, estando completamente indeciso.
En el curso de la investigación, resulta obvio que las opiniones de la mayoría de las personas van en la dirección del "campo principal", y tres cuartos de los expertos se dividen en dos subcampos en el campo principal.
Visitaremos completamente estos dos campos. Vamos a empezar con la diversión.
¿Por qué el futuro puede ser nuestro mayor sueño?
A medida que exploramos el mundo de la IA, descubrimos sorprendentemente a muchas personas en la zona de confort. La gente en la casilla superior derecha está zumbando de emoción. Creen que caeremos en el lado bueno del registro y también estamos seguros de que inevitablemente llegaremos a esto. Para ellos, el futuro es solo lo mejor que uno puede soñar.
El punto que distingue a estas personas de otros pensadores no es que quieran estar en el lado feliz, sino que están seguros de que es ella quien nos está esperando.
Esta confianza surge de la controversia. Los críticos creen que se trata de un entusiasmo cegador, que eclipsa los posibles aspectos negativos. Pero los partidarios dicen que los pronósticos sombríos son siempre ingenuos; Las tecnologías continúan y siempre nos ayudarán más que el daño.
Usted tiene el derecho de elegir cualquiera de estas opiniones, pero deje de lado el escepticismo y eche un vistazo al lado feliz del registro de saldo, tratando de aceptar el hecho de que todo lo que lea puede que ya haya sucedido. Si les mostraras a los cazadores-recolectores nuestro mundo de confort, tecnología y abundancia infinita, a ellos les parecería una ficción mágica, y nos comportamos de manera muy modesta, incapaces de admitir que la misma transformación incomprensible nos espera en el futuro.
Nick Bostrom describe tres formas en que puede ir el sistema supramental de la inteligencia artificial:
* Un oráculo que puede responder a cualquier pregunta planteada con precisión, incluidas preguntas complejas que la gente no puede responder, por ejemplo, "¿cómo hacer que un motor de automóvil sea más eficiente?". Google es un oráculo primitivo.
* El genio que ejecutará cualquier comando de alto nivel (utiliza el ensamblador molecular para crear una versión nueva y más eficiente del motor del automóvil) y esperará el siguiente comando.
* Un soberano que tendrá amplio acceso y la capacidad de funcionar libremente en el mundo, tomando sus propias decisiones y mejorando el proceso. Inventará una forma más económica, rápida y segura de viajar en privado que un automóvil.
Estas preguntas y tareas, que nos parecen difíciles, parecerán un sistema de mente superior si alguien le pide que mejore la situación "mi lápiz se cayó de la mesa", en el que simplemente lo levantaría y lo devolvería.
Eliezer Yudkovsky, un experto estadounidense en inteligencia artificial, notó:
Hay muchos científicos, inventores y empresarios impacientes que han elegido una zona de comodidad segura en nuestra mesa, pero para dar un paseo a lo mejor en este mundo de los mejores, solo necesitamos una guía.
Ray Kurzweil causa dos sensaciones. Algunos idolizan sus ideas, otros lo desprecian. Algunos se quedan en el medio: Douglas Hofstadter, discutiendo las ideas de los libros de Kurzweil, observó elocuentemente que "es como si tomara mucha comida buena y una pequeña caca de perro, y luego mezcló todo para que sea imposible entender qué es bueno y qué es malo".
Si te gustan sus ideas o no, es imposible pasarlas sin una sombra de interés. Comenzó a inventar cosas cuando era un adolescente, y en los años siguientes inventó varias cosas importantes, como el primer escáner de superficie plana, el primer escáner de conversión de texto a voz, el conocido sintetizador musical Kurzweil (el primer piano eléctrico real) y el primer reconocedor de voz con éxito comercial. También es autor de cinco libros sensacionales. Kurzweil es apreciado por sus audaces predicciones, y su "historial" es bastante bueno: al final de 80, cuando Internet aún estaba en su infancia, sugirió que para los años 2000 la Red se convertiría en un fenómeno global. The Wall Street Journal calificó a Kurzweil de "genio inquieto", Forbes, una "máquina de pensamiento global", Inc. La revista es "el legítimo heredero de Edison", Bill Gates es "el mejor de los que predicen el futuro de la inteligencia artificial". En 2012, el cofundador de Google, Larry Page, invitó a Kurzweil al puesto de director técnico. En 2011, fue cofundador de Singularity University, que protegió a la NASA y que en parte está patrocinado por Google.
Su biografía importa. Cuando Kurzweil habla sobre su visión del futuro, parece una locura, pero lo realmente loco de esto es que está muy lejos de ser una loca: es una persona increíblemente inteligente, educada y sensata. Puedes pensar que está equivocado en los pronósticos, pero no es un tonto. Las previsiones de Kurzweil son compartidas por muchos expertos en la "zona de confort", Peter Diamandis y Ben Herzel. Eso es lo que sucederá en su opinión.
Cronología
Kurzweil cree que las computadoras alcanzarán el nivel de inteligencia artificial general (OII) de 2029, y para 2045 no solo tendremos una superinteligencia artificial, sino también un mundo completamente nuevo, el momento de la llamada singularidad. Su cronología de la IA todavía se considera escandalosamente exagerada, pero en los últimos años de 15, el rápido desarrollo de los sistemas de inteligencia artificial estrechamente enfocada (AII) ha llevado a muchos expertos a cambiar a Kurzweil. Sus predicciones siguen siendo más ambiciosas que en la encuesta de Bostrom (OII a 2040, IIS a 2060), pero no mucho.
Según Kurzweil, la singularidad de 2045 del año lleva a tres revoluciones simultáneas en los campos de la biotecnología, la nanotecnología y, lo que es más importante, la IA. Pero antes de continuar, y las nanotecnologías siguen continuamente la inteligencia artificial, echemos un minuto a las nanotecnologías.
Unas palabras sobre la nanotecnología.
Por lo general, llamamos tecnología de nanotecnología que se ocupa de la manipulación de la materia dentro de los nanómetros 1-100. Un nanómetro es una mil millonésima parte de un metro, o una millonésima parte de un milímetro; Dentro de los nanómetros 1-100, puede colocar virus (100 nm a lo ancho), ADN (10 nm de ancho), moléculas de hemoglobina (5 nm), glucosa (1 nm) y más. Si las nanotecnologías se vuelven subordinadas a nosotros, el siguiente paso será la manipulación con átomos individuales que tengan el menor orden de magnitud (~, 1 nm).
Para entender dónde las personas se encuentran con problemas, tratando de controlar la materia en tal escala, pasemos a una escala más grande. La Estación Espacial Internacional está ubicada a 481 a un kilómetro sobre la Tierra. Si las personas fueran gigantes y tocaran la ISS con sus cabezas, serían 250 000 veces más de lo que son ahora. Si aumenta algo de 1 a 100 nanómetros en 250 veces 000, obtendrá un centímetro 2,5. La nanotecnología es el equivalente a una persona con una órbita alta de la ISS que intenta controlar cosas del tamaño de un grano de arena o globo ocular. Para llegar al siguiente nivel, el control de los átomos individuales, el gigante tendrá que colocar cuidadosamente los objetos con un diámetro de 1 / 40 de un milímetro. La gente común necesitará un microscopio para verlos.
Richard Feynman habló sobre nanotecnología por primera vez en 1959. Luego dijo: “Los principios de la física, por lo que puedo decir, no hablan en contra de la posibilidad de controlar las cosas átomo a átomo. En principio, un físico podría sintetizar cualquier sustancia química registrada por un químico. Como Colocando los átomos donde el químico dice para obtener la sustancia ". Esto es todo simplicidad. Si sabes cómo mover moléculas individuales o átomos, puedes hacer casi todo.
Las nanotecnologías se convirtieron en un campo científico serio en 1986, cuando el ingeniero Eric Drexler presentó sus fundamentos en su libro fundamental "Máquinas de la Creación", sin embargo, el propio Drexler cree que aquellos que quieran aprender más sobre las ideas modernas en nanotecnología deberían leer su libro 2013 del año " Abundancia total ”(Abundancia radical).
Unas palabras sobre el "moco gris"
Profundizar en nanotecnología. En particular, el tema del "goo gris" es uno de los temas no más agradables en el campo de la nanotecnología, sobre el cual no se puede hablar. En las versiones antiguas de la teoría de la nanotecnología, se propuso un método a nanoescala, que incluía la creación de billones de diminutos nanorobots que trabajarían juntos para crear algo. Una de las formas de crear billones de nanorobots es crear uno que pueda reproducirse, es decir, de uno a dos, de dos a cuatro, y así sucesivamente. Unos billones de nanorobots aparecerán en un día. Tal es el poder del crecimiento exponencial. Divertido no es?
Es divertido, pero exactamente hasta que lleva a un apocalipsis. El problema es que el poder del crecimiento exponencial, que lo hace bastante conveniente para crear rápidamente un billón de nanobots, hace que la autorreplicación sea algo terrible en perspectiva. ¿Qué pasa si el sistema se apaga, y en lugar de detener la replicación en un par de billones, los nanobots continuarán multiplicándose? ¿Qué pasa si todo este proceso es dependiente de carbono? La biomasa de la Tierra contiene átomos de carbono 10 ^ 45. El nanobot debe consistir en el orden de los átomos de carbono 10 ^ 6, por lo que los nanobots 10 ^ 39 devorarán toda la vida en la Tierra, y esto ocurrirá solo en las replicaciones de 130. Un océano de nanobots ("goo gris") inundará el planeta. Los científicos creen que los nanobots se pueden replicar en 100 segundos, lo que significa que un simple error puede matar a toda la vida en la Tierra en tan solo 3,5 horas.
Puede ser peor, si las nanotecnologías son alcanzadas por las manos de terroristas y especialistas desfavorables. Podrían crear varios billones de nanobots y programarlos para que se diseminen en silencio alrededor del mundo en un par de semanas. Luego, con solo hacer clic en un botón, en solo 90 minutos se comen todo, sin posibilidad alguna.
Aunque esta historia de terror ha sido ampliamente discutida durante muchos años, la buena noticia es que esta es solo una historia de horror. Eric Drexler, quien acuñó el término "goo gris", dijo recientemente lo siguiente: "A la gente le encantan las historias de terror, y esta está en la categoría de historias de miedo sobre zombies. Esta idea en sí ya está comiendo cerebros ".
Después de llegar al fondo de la nanotecnología, podemos usarlos para crear dispositivos técnicos, ropa, alimentos, bioproductos, células sanguíneas, combatientes contra virus y cáncer, tejido muscular, etc., cualquier cosa. Y en el mundo que utiliza la nanotecnología, el costo del material ya no estará vinculado a su escasez o complejidad del proceso de fabricación, sino a la complejidad de la estructura atómica. En el mundo de la nanotecnología, un diamante puede convertirse en un borrador más barato.
Aún no estamos cerca. Y no está del todo claro, subestimamos o sobreestimamos la complejidad de este camino. Sin embargo, todo va al hecho de que la nanotecnología no está muy lejos. Kurzweil sugiere que para los años 2020 los tendremos. Los estados del mundo saben que las nanotecnologías pueden prometer un gran futuro y, por lo tanto, invertir miles de millones en ellas.
Solo imagine las posibilidades que obtendrá una computadora súper inteligente si llega a un ensamblador confiable a nanoescala. Pero la nanotecnología es nuestra idea, y estamos tratando de aprovecharla, es difícil para nosotros. ¿Qué sucede si para el sistema ISI son solo una broma, y el ISI en sí creará tecnologías que a veces serán más poderosas que cualquier otra cosa que generalmente podamos asumir? Acordamos: nadie puede asumir de qué será capaz la inteligencia artificial artificial. Se cree que nuestros cerebros son incapaces de predecir incluso el mínimo de lo que será.
¿Qué podría hacer la IA por nosotros?
Armado con la superinteligencia y todas las tecnologías que la superinteligencia podría crear, ICI probablemente podrá resolver todos los problemas de la humanidad. ¿Calentamiento global? ISI primero detendrá las emisiones de carbono al inventar una serie de formas eficientes de producir energía que no esté asociada con los combustibles fósiles. Luego se le ocurrirá una manera efectiva e innovadora de eliminar el exceso de CO2 de la atmósfera. ¿Cáncer y otras enfermedades? No es un problema: el cuidado de la salud y la medicina cambiarán de una manera que es imposible de imaginar. Hambre del mundo? ICI utilizará la nanotecnología para crear carne idéntica a la natural, desde cero, la carne real.
Las nanotecnologías podrán convertir un montón de basura en un recipiente de carne fresca u otro alimento (no necesariamente en una forma familiar, imaginen un cubo de manzana gigante) y diseminar todo este alimento en todo el mundo utilizando sistemas de transporte avanzados. Por supuesto, será genial para los animales que ya no tienen que morir por la comida. ICI también puede hacer muchas otras cosas, como salvar especies en peligro de extinción o incluso regresar del ADN almacenado. El CII puede resolver nuestros problemas macroeconómicos más difíciles, nuestro debate económico más difícil, la ética y la filosofía, el comercio mundial, todo esto será dolorosamente obvio para el CII.
Pero hay algo especial que CII podría hacer por nosotros. Seductor y burlón que cambiaría todo: CII puede ayudarnos a lidiar con la mortalidad. Poco a poco, aprovechando las posibilidades de la IA, también puede reconsiderar todas sus ideas sobre la muerte.
La evolución no tenía motivos para prolongar nuestra vida útil más de lo que es ahora. Si vivimos lo suficiente para dar a luz y criar a los hijos hasta el punto de poder defenderse, esta evolución es suficiente. Desde un punto de vista evolutivo, 30 + tiene suficientes años para desarrollarse, y no hay razón para que las mutaciones prolonguen la vida y reduzcan el valor de la selección natural. William Butler Yates llamó a nuestra especie "alma unida a un animal moribundo". No es muy divertido.
Y como todos morimos algún día, vivimos con el pensamiento de que la muerte es inevitable. Pensamos en envejecer con el tiempo, seguir avanzando y no poder detener este proceso. Pero el pensamiento de la muerte es traicionero: capturado por ella, nos olvidamos de vivir. Richard Feynman escribió:
“Hay algo maravilloso en la biología: no hay nada en esta ciencia que pueda hablar de la necesidad de la muerte. Si queremos crear una máquina de movimiento perpetuo, entendemos que hemos encontrado suficientes leyes en la física, que indican la imposibilidad de esto o que las leyes están equivocadas. Pero en biología no hay nada que indique la inevitabilidad de la muerte. Esto me lleva a creer que no es tan inevitable, y es solo una cuestión de tiempo antes de que los biólogos encuentren la causa de este problema, esta terrible enfermedad universal, se curará ".
El hecho es que el envejecimiento no tiene nada que ver con el tiempo. El envejecimiento es que los materiales físicos del cuerpo se desgastan. Algunas partes del automóvil también se degradan, pero ¿es inevitable este envejecimiento? Si repara el automóvil a medida que se desgastan las piezas, funcionará para siempre. El cuerpo humano no es diferente, solo que más complicado.
Kurzweil habla sobre nanobots inteligentes conectados a Wi-Fi en el torrente sanguíneo que podrían realizar innumerables tareas de salud humana, incluida la reparación regular o el reemplazo de células desgastadas en cualquier parte del cuerpo. Si mejora este proceso (o encuentra una alternativa propuesta por una ICI más inteligente), no solo mantendrá su cuerpo sano, sino que también puede revertir el envejecimiento. La diferencia entre el cuerpo del niño de 60 años y el de 30 años reside en un puñado de momentos físicos que podrían corregirse con la tecnología adecuada. ISI podría construir un automóvil que una persona visitaría cuando tenía 60 años, y salir con un 30 años.
Incluso un cerebro degradante podría actualizarse. ISI seguramente sabría cómo hacer esto sin afectar los datos del cerebro (personalidad, recuerdos, etc.). El niño de 90, que padece una degradación cerebral completa, podría volver a entrenarse, actualizarse y regresar al comienzo de su carrera. Esto puede parecer absurdo, pero el cuerpo es un puñado de átomos, y el CID probablemente podría manipularlos fácilmente con cualquier estructura atómica. No todo es tan absurdo.
Kurzweil también cree que los materiales artificiales se integrarán cada vez más en el cuerpo a medida que el tiempo avanza. Para empezar, los órganos podrían ser reemplazados por versiones de máquinas súper avanzadas que funcionarían para siempre y nunca fallarían. Entonces podríamos hacer un rediseño completo del cuerpo, reemplazar los glóbulos rojos con nanobots ideales que se moverían solos, eliminando la necesidad de un corazón en general. También podríamos mejorar nuestras habilidades cognitivas, comenzar a pensar miles de millones más rápido y obtener acceso a toda la información disponible para la humanidad utilizando la nube.
Las posibilidades para comprender nuevos horizontes serían verdaderamente ilimitadas. Las personas han logrado dotar al sexo con una nueva cita, se dedican a ella por placer y no solo para la reproducción. Kurzweil cree que podemos hacer lo mismo con la comida. Los nanobots pueden brindar una nutrición perfecta directamente a las células del cuerpo, permitiendo que las sustancias no saludables pasen a través del cuerpo. El teórico de la nanotecnología Robert Freitas ya ha desarrollado un reemplazo para las células sanguíneas que, cuando se implementa en un cuerpo humano, puede permitirle no respirar durante minutos 15, y esto fue inventado por el hombre. Imagínate cuando el poder obtiene ICI.
Después de todo, Kurzweil cree que las personas alcanzarán un punto en el que se volverán completamente artificiales; el momento en que veremos los materiales biológicos y pensaremos cuán primitivos fueron; el momento en que leeremos acerca de las primeras etapas de la historia humana, maravillándonos de cómo los microbios, accidentes, enfermedades o simplemente la vejez podrían matar a una persona contra su voluntad. Al final, la gente derrotará su propia biología y se volverá eterna: este es el camino hacia el lado feliz del rayo de equilibrio, del cual estamos hablando desde el principio. Y la gente que cree en él también está segura de que este futuro nos espera muy, muy pronto.
Ciertamente no se sorprenderá de que las ideas de Kurzweil atrajeran severas críticas. Su singularidad en el año 2045 y la subsiguiente vida eterna para las personas se denominó "la ascensión de los nerds" o "la creación racional de las personas con el IQ 140". Otros cuestionaron el calendario optimista, la comprensión del cuerpo humano y el cerebro, le recordaron la ley de Moore, que aún no llega a ninguna parte. Por cada experto que cree en las ideas de Kurzweil, hay tres que creen que está equivocado.
Pero lo más interesante de esto es que la mayoría de los expertos que no están de acuerdo con él generalmente no dicen que esto sea imposible. En lugar de decir "tonterías, esto nunca sucederá", dicen algo así como "todo sucede si llegamos al ISI, pero eso es sólo la trampa". Bostrom, uno de los expertos reconocidos de AI que advierte sobre los peligros de la IA, también reconoce:
“Es poco probable que haya al menos algún problema que la superinteligencia no pueda resolver o al menos nos ayude a resolver. Las enfermedades, la pobreza, la destrucción del medio ambiente, el sufrimiento de todo tipo, toda esta súper inteligencia con la ayuda de la nanotecnología podrá resolverlo en un momento. Además, la superinteligencia nos puede dar una vida útil ilimitada deteniendo e invirtiendo el proceso de envejecimiento, utilizando la nanomedicina o la capacidad de cargarnos en la nube. La superinteligencia también puede crear oportunidades para un aumento infinito en las posibilidades intelectuales y emocionales; Él puede ayudarnos a crear un mundo en el que viviremos con alegría y comprensión, acercándonos a nuestros ideales y cumpliendo nuestros sueños con regularidad ".
Esta es una cita de uno de los críticos de Kurzweil, sin embargo, reconociendo que todo esto es posible si logramos crear un ISI seguro. Kurzweil simplemente determinó lo que debería ser la inteligencia artificial, si alguna vez es posible. Y si es un buen dios.
La crítica más obvia a los partidarios de la "zona de confort" es que pueden estar muy equivocados al evaluar el futuro de ICI. En su libro Singularity, Kurzweil dedicó las páginas 20 de 700 a las posibles amenazas ISI. La pregunta no es cuando llegamos al ISI, la pregunta es cuál será su motivación. Kurzweil responde a esta pregunta con cautela: “El ISI surge de muchos esfuerzos dispares y se integrará profundamente en la infraestructura de nuestra civilización. De hecho, se integrará estrechamente en nuestro cuerpo y cerebro. Reflejará nuestros valores, porque será uno con nosotros ".
Pero si la respuesta es, ¿por qué hay tanta gente inteligente en este mundo preocupada por el futuro de la inteligencia artificial? ¿Por qué Stephen Hawking dice que el desarrollo de ICI "puede significar el fin de la raza humana"? Bill Gates dice que "no entiende a las personas que no están preocupadas" por esto. Elon Musk teme que "llamemos al demonio". ¿Por qué muchos expertos consideran que ISI es la mayor amenaza para la humanidad?
De esto hablaremos la próxima vez.
Basado en waitbutwhy.com, compilado por Tim Urban. El artículo utiliza materiales de Nick Bostrom, James Barrat, Ray Kurzweil, Jay Niels-Nilsson, Stephen Pinker, Vernor Vinge, Moshe Vardy, Russ Roberts, Stuart Armstroh y Kai Sotal, Susan Schneider, Susan Schneider, Schweider, Víctor, Víctor, Víctor, Juzgado, Víctor, Víctor, Juzgado, Víctor, Víctor, Estéreo, Víctor, Tete, Armetero, Telas, Armstrong, Telas, Armarios, Víctor, Juzgado, Víctor, Juzgado, Víctor, Gatos Marcus, Carl Schulman, John Searle, Jaron Lanier, Bill Joy, Kevin Keli, Paul Allen, Stephen Hawking, Kurt Andersen, Mitch Kapor, Ben Herzel, Arthur Clarke, Hubert Dreyfus, Ted Greenwald, Jeremy Howard.
información