Inteligencia Artificial. Segunda parte: ¿extinción o inmortalidad?

60
Inteligencia Artificial. Segunda parte: ¿extinción o inmortalidad?


Aquí está la segunda parte de un artículo de la serie "Espera, ¿cómo puede ser todo esto una realidad, por qué todavía no se habla en todos los rincones?" En la serie anterior se supo que una explosión de intelecto se está arrastrando gradualmente hacia las personas del planeta Tierra, está tratando de desarrollarse desde una inteligencia humana estrechamente enfocada a universal y, finalmente, a una superinteligencia artificial.

"Tal vez, nos enfrentamos a un problema extremadamente complejo, y no se sabe cuánto tiempo se destina a su solución, pero el futuro de la humanidad puede depender de su solución". - Nick Bostrom.


La primera parte del artículo comenzó inocentemente. Discutimos la inteligencia artificial estrechamente enfocada (AII, que se especializa en resolver una tarea específica, como determinar rutas o jugar ajedrez), en nuestro mundo es mucho. Luego analizaron por qué es tan difícil desarrollar inteligencia artificial generalizada de la UII (AOI o AI, que, según las capacidades intelectuales, puede compararse con una persona para resolver cualquier tarea). Llegamos a la conclusión de que las tasas exponenciales de progreso tecnológico sugieren que la OII puede aparecer bastante pronto. Al final, decidimos que tan pronto como las máquinas alcanzaran el nivel humano de inteligencia, lo siguiente podría suceder inmediatamente:






Como de costumbre, miramos la pantalla, sin creer que la superinteligencia artificial (ICI, que es mucho más inteligente que cualquier persona) pueda aparecer en nuestras vidas, y seleccionando las emociones que reflejen mejor nuestra opinión sobre este tema.

Antes de profundizar en el ICI particular, recordemos lo que significa que una máquina sea súper inteligente.

La principal diferencia radica entre la superinteligencia rápida y la superinteligencia de alta calidad. A menudo, lo primero que se me ocurre al pensar en una computadora súper inteligente es que puede pensar mucho más rápido que una persona, millones de veces más rápido, y en cinco minutos comprenderá lo que una persona necesitaría durante diez años. ("¡Sé Kung Fu!")

Suena impresionante, y el ISI realmente debería pensar más rápido que cualquiera de las personas, pero la principal característica de separación será la calidad de su intelecto, y esta es otra muy distinta. Las personas son mucho más inteligentes que los monos, no porque piensen más rápido, sino porque los cerebros de las personas contienen una serie de ingeniosos módulos cognitivos que hacen representaciones lingüísticas complejas, planificación a largo plazo, pensamiento abstracto, que los monos no son capaces de hacer. Si dispersas el cerebro de un mono mil veces, no se volverá más inteligente que nosotros, incluso después de diez años, no podrá reunir un diseñador de acuerdo con las instrucciones, lo que una persona necesitaría un par de horas como máximo. Hay cosas que un mono nunca aprende, sin importar cuántas horas pase o qué tan rápido funcione su cerebro.

Además, el mono no sabe cuán humanamente, porque su cerebro simplemente no es capaz de darse cuenta de la existencia de otros mundos: el mono puede saber qué es un hombre y qué es un rascacielos, pero nunca entenderá que el rascacielos fue construido por la gente. En su mundo, todo pertenece a la naturaleza, y el macaco no solo no puede construir un rascacielos, sino que también comprende que cualquiera puede construirlo. Y este es el resultado de una pequeña diferencia en la calidad de la inteligencia.

En el esquema general del intelecto del que estamos hablando, o simplemente según los estándares de las criaturas biológicas, la diferencia en la calidad de la inteligencia del hombre y el mono es muy pequeña. En el artículo anterior colocamos habilidades cognitivas biológicas en la escalera:



Para comprender qué tan seria será una máquina súper inteligente, colóquela dos pasos por encima de la persona en esta escalera. Esta máquina puede ser bastante supramental, pero su superioridad sobre nuestras habilidades cognitivas será la misma que la nuestra: sobre los monos. Y como los chimpancés nunca comprenden que se puede construir un rascacielos, es posible que nunca entendamos lo que la máquina entenderá un par de pasos más, incluso si la máquina intenta explicárnoslo. Pero esto es sólo un par de pasos. El auto verá hormigas más inteligentes en nosotros; nos enseñará las cosas más simples desde su posición durante años, y estos intentos serán completamente inútiles.

El tipo de superinteligencia de la que hablaremos hoy se encuentra más allá de esta escalera. Esto es una explosión de inteligencia: cuando más inteligente se vuelve la máquina, más rápido puede aumentar su propia inteligencia, aumentando gradualmente el impulso. Tal máquina puede tomar años para superar a los chimpancés en inteligencia, pero tal vez un par de horas para superarnos por un par de pasos. A partir de este momento, la máquina ya puede saltar cuatro pasos cada segundo. Es por eso que debemos entender eso muy pronto después de la primera. noticias Cuando la máquina ha alcanzado el nivel de inteligencia humana, podemos enfrentar la realidad de la convivencia en la Tierra con algo que será mucho más alto que nosotros en esta escala (y tal vez millones de veces más alto):



Y como ya hemos establecido que es absolutamente inútil tratar de entender el poder de una máquina que está solo dos pasos por encima de nosotros, definamos de una vez por todas que no hay manera de entender qué hará ICI y cuáles serán las consecuencias para nosotros. Cualquiera que afirme lo contrario simplemente no entiende lo que significa la superinteligencia.

La evolución ha desarrollado lenta y gradualmente el cerebro biológico durante cientos de millones de años, y si los humanos creamos una máquina con superinteligencia, en cierto sentido, superaremos la evolución. O será parte de la evolución; tal vez la evolución sea tal que la inteligencia se desarrolle gradualmente hasta alcanzar un punto de inflexión que anuncia un nuevo futuro para todos los seres vivos:



Por razones que discutiremos más adelante, una gran parte de la comunidad científica cree que la pregunta no es si llegamos a este punto de inflexión, sino cuándo.

¿Dónde estamos después de esto?

Creo que nadie en este mundo, ni yo, ni tú, podemos decir qué pasa cuando llegamos a un punto de inflexión. El filósofo y teórico líder de Oxford, AI Nick Bostrom, cree que podemos reducir todos los resultados posibles a dos grandes categorías.

Primero, mirando historiaSabemos lo siguiente acerca de la vida: las especies aparecen, existen durante un cierto tiempo, y luego inevitablemente caen del equilibrio del equilibrio de la vida y desaparecen.



"Todas las especies se están extinguiendo" era una regla tan confiable en la historia como "todas las personas mueren algún día". 99,9% de las especies han caído de un registro de vida, y está claro que si una determinada especie permanece en este registro demasiado tiempo, una ráfaga de viento natural o un asteroide repentino dará vuelta este registro al revés. Bostrom llama extinción al estado de un atractor, un lugar donde todas las especies se equilibran, para no caer donde ninguna especie ha regresado todavía.

Y aunque la mayoría de los científicos reconocen que ISI tendrá la capacidad de condenar a las personas a la extinción, muchos también creen que el uso de las capacidades del ISI permitirá que los individuos (y las especies en general) alcancen el segundo estado de la inmortalidad de las especies atractivas. Bostrom cree que la inmortalidad de la especie es el mismo atractivo que la extinción de la especie, es decir, si llegamos a esto, estaremos condenados a la existencia eterna. Por lo tanto, incluso si todas las especies cayeron de este palo a la reserva de extinción antes del día actual, Bostrom cree que el registro tiene dos lados, y simplemente no existe tal inteligencia en la Tierra que entienda cómo caer al otro lado.



Si Bostrom y los demás tienen razón, y, a juzgar por toda la información que tenemos disponible, es muy posible que debamos tomar dos datos muy impactantes:

La aparición de ISI por primera vez en la historia abrirá la posibilidad de que la especie alcance la inmortalidad y se salga del ciclo fatal de la extinción.
La aparición de ICI tendrá un impacto tan inimaginable que es probable que empuje a la humanidad desde este registro en una u otra dirección.
Es posible que cuando la evolución llegue a un punto de inflexión, siempre ponga fin a la relación de las personas con el flujo de la vida y cree un mundo nuevo, con personas o sin ellas.

Esto lleva a una pregunta interesante que solo una persona perezosa no haría: ¿cuándo llegaremos a este punto de inflexión y dónde nos determinará? Nadie en el mundo sabe la respuesta a esta doble pregunta, pero muchas personas inteligentes han estado tratando de entender esto durante décadas. En el resto del artículo descubriremos a qué han llegado.

* * *


Comenzamos con la primera parte de esta pregunta: ¿cuándo debemos alcanzar un punto de inflexión? En otras palabras: ¿cuánto tiempo queda hasta que la primera máquina llegue a la superinteligencia?

Las opiniones varían de un caso a otro. Muchos, entre ellos el profesor Vernor Vinge, el científico Ben Herzl, cofundador de Sun Microsystems Bill Joy, el futurólogo Ray Kurzweil, estuvieron de acuerdo con el experto en aprendizaje automático Jeremy Howard cuando presentó el siguiente cuadro en TED Talk:



Estas personas comparten la opinión de que el ISI aparecerá pronto: este crecimiento exponencial, que hoy nos parece lento, estallará literalmente en las próximas décadas.

Otros, como el cofundador de Microsoft, Paul Allen, el psicólogo investigador Gary Marcus, el experto en computación Ernest Davis y el tecnopreneur Mitch Kapor creen que los pensadores como Kurzweil subestiman seriamente la magnitud del problema y piensan que no estamos tan cerca de un punto de inflexión.

Kurzweil Camp se opone a que la única subestimación que se lleva a cabo es ignorar el crecimiento exponencial, y usted puede comparar a quienes dudan de aquellos que observaron el lento crecimiento de Internet en 1985 y afirmaron que no afectaría al mundo en el futuro cercano.

Los "dudosos" pueden defenderse, diciendo que el progreso es más difícil de hacer en cada paso posterior cuando se trata del desarrollo exponencial del intelecto, que nivela la naturaleza exponencial típica del progreso tecnológico. Y así sucesivamente.

El tercer campo, en el que se encuentra Nick Bostrom, no está de acuerdo con el primero ni con el segundo, argumentando que a) todo esto puede suceder absolutamente en el futuro cercano; y b) no hay garantías de que esto suceda o que dure más tiempo.

Otros, como el filósofo Hubert Dreyfus, creen que estos tres grupos creen ingenuamente que habrá un punto de inflexión en general, y que, probablemente, nunca llegaremos al ISI.

¿Qué pasa cuando juntamos todas estas opiniones?

En 2013, Bostrom realizó una encuesta en la que entrevistó a cientos de expertos en el campo de la inteligencia artificial durante una serie de conferencias sobre el siguiente tema: "¿Cuál es su predicción para lograr un OIH a nivel humano?" - porcentaje de probabilidad), una suposición realista (el año en el que tenemos el 10 de probabilidad de OII) y una suposición de confianza (el año más temprano en el que aparece la OII con la probabilidad del 50-porcentaje). Aquí están los resultados:

* Año medio optimista (10%): 2022
* Promedio de año realista (50%): 2040
* Año pesimista medio (90%): 2075

Los encuestados promedio creen que en los años 25 tendremos más AIS que no. El 90 de probabilidad de ocurrencia de OII por parte de 2075 significa que si todavía eres muy joven, es muy probable que esto ocurra en tu vida.

Un estudio separado recientemente realizado por James Barrat (el autor del aclamado y muy buen libro, Our Last Invention, "extractos del cual Llamé la atención de los lectores. Hi-News.ru) y Ben Herzel en la conferencia anual dedicada a OII, AGI Conference, simplemente mostraron las opiniones de la gente con respecto al año en que llegamos a OII: a 2030, 2050, 2100, más tarde o nunca. Aquí están los resultados:

* 2030: 42% de encuestados
* 2050: 25%
* 2100: 20%
Después de 2100: 10%
Nunca: 2%
Parece que los resultados de Bostrom. En la encuesta de Barrat, más de dos tercios de los encuestados creen que la OII estará aquí para el año 2050, y menos de la mitad cree que la OII aparecerá en los próximos años 15. También es sorprendente que solo el 2% de los encuestados, en principio, no vea AIS en nuestro futuro.

Pero CSI no es un punto de inflexión, como ICI. ¿Cuándo, según los expertos, tendremos ICI?

Bostrom entrevistó a expertos cuando llegamos al ISI: a) dos años después de alcanzar el AIS (es decir, casi instantáneamente debido a una explosión de inteligencia); b) en años 30. Resultados?

La vista promedio es que la transición rápida de OII a ISI con el 10 de probabilidad porcentual, pero en 30 años o menos, ocurrirá con la probabilidad de 75 porcentual.

A partir de estos datos, no sabemos a qué fecha los encuestados llamarían el 50 de probabilidad de ocurrencia de ICI, pero en base a las dos respuestas anteriores, supongamos que son años 20. Es decir, los principales expertos del mundo en el campo de la IA creen que el punto de inflexión se producirá en el año 2060 (el OII aparecerá en el año 2040 + tomará años para que el 20 pase de la OII al IIS).



Por supuesto, todas las estadísticas anteriores son especulativas y simplemente representan la opinión de expertos en el campo de la inteligencia artificial, pero también indican que la mayoría de las personas involucradas están de acuerdo en que, por el 2060, es probable que llegue el ISI. En pocos años 45.

Pasamos a la segunda pregunta. Cuando alcancemos un punto de inflexión, ¿qué lado de la elección fatal nos determinará?

La superinteligencia será poderosa, y la pregunta crítica para nosotros será la siguiente:

¿Quién o qué controlará esta fuerza y ​​cuál será su motivación?

La respuesta a esta pregunta dependerá de si el ISI recibe un desarrollo increíblemente poderoso, un desarrollo inmensamente aterrador o algo entre estas dos opciones.

Por supuesto, la comunidad de expertos está tratando de responder a estas preguntas. La encuesta de Bostroma analizó la probabilidad de las posibles consecuencias del impacto de la OII en la humanidad, y resultó que con la probabilidad del 52, todo va muy bien y con la probabilidad del 31, que todo va bien o mal. La encuesta adjunta al final de la parte anterior de este tema, realizada entre ustedes, queridos lectores de Hi-News, mostró los mismos resultados. Para un resultado relativamente neutral, la probabilidad fue solo de 17%. En otras palabras, todos creemos que la aparición de OII será un gran evento. También vale la pena señalar que esta encuesta se refiere a la aparición de OII; en el caso de ICI, el porcentaje de neutralidad será menor.

Antes de profundizar más en el discurso sobre los aspectos positivos y negativos de la pregunta, combinemos ambas partes de la pregunta: “¿cuándo sucederá esto?” ¿Y “bueno o malo?” En una tabla que cubra las opiniones de la mayoría de los expertos.



Hablaremos sobre el campamento principal en un minuto, pero primero decida sobre su posición. Lo más probable es que esté en el mismo lugar que yo, antes de comenzar a tratar este tema. Hay varias razones por las que las personas generalmente no piensan en este tema:

* Como se mencionó en la primera parte, las películas confundieron seriamente a la gente y los hechos, presentando escenarios poco realistas con inteligencia artificial, lo que llevó al hecho de que no deberíamos tomar en serio a AI. James Barratt comparó esta situación con el hecho de que los Centros para el Control de Enfermedades emitieron una seria advertencia sobre los vampiros en nuestro futuro.

* Debido a los llamados sesgos cognitivos, es muy difícil para nosotros creer en la realidad de algo, siempre y cuando no tengamos evidencia. Se puede imaginar con confianza a los científicos informáticos de 1988 del año, quienes discutían regularmente las consecuencias de largo alcance de la aparición de Internet y lo que podría llegar a ser, pero la gente casi no creía que cambiaría sus vidas hasta que esto sucediera. Las computadoras simplemente no sabían cómo hacer esto en 1988, y la gente solo miraba sus computadoras y pensaba: “¿En serio? ¿Es esto lo que cambiará el mundo? Su imaginación estaba limitada por lo que su experiencia personal les enseñaba, sabían lo que era una computadora y era difícil imaginar de qué sería capaz la computadora en el futuro. Lo mismo está pasando ahora con la IA. Escuchamos que se convertirá en algo serio, pero como todavía no lo hemos confrontado cara a cara y, en general, vemos manifestaciones más bien débiles de IA en nuestro mundo moderno, es bastante difícil para nosotros creer que cambiará radicalmente nuestra vida. Es contra estos prejuicios que numerosos expertos de todos los campos, así como personas interesadas, están tratando de llamar nuestra atención a través del ruido del egocentrismo colectivo cotidiano.

* Incluso si creemos todo esto, ¿cuántas veces has pensado en el hecho de que pasarás el resto de la eternidad en la no existencia? Un poco de acuerdo. Incluso si este hecho es mucho más importante que lo que haces todos los días. Esto se debe a que nuestros cerebros generalmente se enfocan en pequeñas cosas cotidianas, sin importar cuán locas sean las situaciones a largo plazo. Simplemente, estamos tan dispuestos.
Uno de los objetivos de este artículo es sacarte del campamento llamado "Me gusta pensar en otras cosas" y poner a expertos en el campamento, incluso si te paras en la encrucijada entre las dos líneas punteadas en la casilla de arriba, estando completamente indeciso.

En el curso de la investigación, resulta obvio que las opiniones de la mayoría de las personas van en la dirección del "campo principal", y tres cuartos de los expertos se dividen en dos subcampos en el campo principal.



Visitaremos completamente estos dos campos. Vamos a empezar con la diversión.

¿Por qué el futuro puede ser nuestro mayor sueño?

A medida que exploramos el mundo de la IA, descubrimos sorprendentemente a muchas personas en la zona de confort. La gente en la casilla superior derecha está zumbando de emoción. Creen que caeremos en el lado bueno del registro y también estamos seguros de que inevitablemente llegaremos a esto. Para ellos, el futuro es solo lo mejor que uno puede soñar.

El punto que distingue a estas personas de otros pensadores no es que quieran estar en el lado feliz, sino que están seguros de que es ella quien nos está esperando.

Esta confianza surge de la controversia. Los críticos creen que se trata de un entusiasmo cegador, que eclipsa los posibles aspectos negativos. Pero los partidarios dicen que los pronósticos sombríos son siempre ingenuos; Las tecnologías continúan y siempre nos ayudarán más que el daño.

Usted tiene el derecho de elegir cualquiera de estas opiniones, pero deje de lado el escepticismo y eche un vistazo al lado feliz del registro de saldo, tratando de aceptar el hecho de que todo lo que lea puede que ya haya sucedido. Si les mostraras a los cazadores-recolectores nuestro mundo de confort, tecnología y abundancia infinita, a ellos les parecería una ficción mágica, y nos comportamos de manera muy modesta, incapaces de admitir que la misma transformación incomprensible nos espera en el futuro.

Nick Bostrom describe tres formas en que puede ir el sistema supramental de la inteligencia artificial:

* Un oráculo que puede responder a cualquier pregunta planteada con precisión, incluidas preguntas complejas que la gente no puede responder, por ejemplo, "¿cómo hacer que un motor de automóvil sea más eficiente?". Google es un oráculo primitivo.

* El genio que ejecutará cualquier comando de alto nivel (utiliza el ensamblador molecular para crear una versión nueva y más eficiente del motor del automóvil) y esperará el siguiente comando.

* Un soberano que tendrá amplio acceso y la capacidad de funcionar libremente en el mundo, tomando sus propias decisiones y mejorando el proceso. Inventará una forma más económica, rápida y segura de viajar en privado que un automóvil.

Estas preguntas y tareas, que nos parecen difíciles, parecerán un sistema de mente superior si alguien le pide que mejore la situación "mi lápiz se cayó de la mesa", en el que simplemente lo levantaría y lo devolvería.

Eliezer Yudkovsky, un experto estadounidense en inteligencia artificial, notó:

“No existen problemas difíciles, solo problemas que son difíciles para un cierto nivel de inteligencia. Suba un nivel (en términos de inteligencia), y algunos problemas de repente pasan de la categoría de "imposible" al campo de "obvio". Un paso más arriba, y todos se volverán obvios ".


Hay muchos científicos, inventores y empresarios impacientes que han elegido una zona de comodidad segura en nuestra mesa, pero para dar un paseo a lo mejor en este mundo de los mejores, solo necesitamos una guía.

Ray Kurzweil causa dos sensaciones. Algunos idolizan sus ideas, otros lo desprecian. Algunos se quedan en el medio: Douglas Hofstadter, discutiendo las ideas de los libros de Kurzweil, observó elocuentemente que "es como si tomara mucha comida buena y una pequeña caca de perro, y luego mezcló todo para que sea imposible entender qué es bueno y qué es malo".

Si te gustan sus ideas o no, es imposible pasarlas sin una sombra de interés. Comenzó a inventar cosas cuando era un adolescente, y en los años siguientes inventó varias cosas importantes, como el primer escáner de superficie plana, el primer escáner de conversión de texto a voz, el conocido sintetizador musical Kurzweil (el primer piano eléctrico real) y el primer reconocedor de voz con éxito comercial. También es autor de cinco libros sensacionales. Kurzweil es apreciado por sus audaces predicciones, y su "historial" es bastante bueno: al final de 80, cuando Internet aún estaba en su infancia, sugirió que para los años 2000 la Red se convertiría en un fenómeno global. The Wall Street Journal calificó a Kurzweil de "genio inquieto", Forbes, una "máquina de pensamiento global", Inc. La revista es "el legítimo heredero de Edison", Bill Gates es "el mejor de los que predicen el futuro de la inteligencia artificial". En 2012, el cofundador de Google, Larry Page, invitó a Kurzweil al puesto de director técnico. En 2011, fue cofundador de Singularity University, que protegió a la NASA y que en parte está patrocinado por Google.

Su biografía importa. Cuando Kurzweil habla sobre su visión del futuro, parece una locura, pero lo realmente loco de esto es que está muy lejos de ser una loca: es una persona increíblemente inteligente, educada y sensata. Puedes pensar que está equivocado en los pronósticos, pero no es un tonto. Las previsiones de Kurzweil son compartidas por muchos expertos en la "zona de confort", Peter Diamandis y Ben Herzel. Eso es lo que sucederá en su opinión.

Cronología

Kurzweil cree que las computadoras alcanzarán el nivel de inteligencia artificial general (OII) de 2029, y para 2045 no solo tendremos una superinteligencia artificial, sino también un mundo completamente nuevo, el momento de la llamada singularidad. Su cronología de la IA todavía se considera escandalosamente exagerada, pero en los últimos años de 15, el rápido desarrollo de los sistemas de inteligencia artificial estrechamente enfocada (AII) ha llevado a muchos expertos a cambiar a Kurzweil. Sus predicciones siguen siendo más ambiciosas que en la encuesta de Bostrom (OII a 2040, IIS a 2060), pero no mucho.

Según Kurzweil, la singularidad de 2045 del año lleva a tres revoluciones simultáneas en los campos de la biotecnología, la nanotecnología y, lo que es más importante, la IA. Pero antes de continuar, y las nanotecnologías siguen continuamente la inteligencia artificial, echemos un minuto a las nanotecnologías.



Unas palabras sobre la nanotecnología.

Por lo general, llamamos tecnología de nanotecnología que se ocupa de la manipulación de la materia dentro de los nanómetros 1-100. Un nanómetro es una mil millonésima parte de un metro, o una millonésima parte de un milímetro; Dentro de los nanómetros 1-100, puede colocar virus (100 nm a lo ancho), ADN (10 nm de ancho), moléculas de hemoglobina (5 nm), glucosa (1 nm) y más. Si las nanotecnologías se vuelven subordinadas a nosotros, el siguiente paso será la manipulación con átomos individuales que tengan el menor orden de magnitud (~, 1 nm).

Para entender dónde las personas se encuentran con problemas, tratando de controlar la materia en tal escala, pasemos a una escala más grande. La Estación Espacial Internacional está ubicada a 481 a un kilómetro sobre la Tierra. Si las personas fueran gigantes y tocaran la ISS con sus cabezas, serían 250 000 veces más de lo que son ahora. Si aumenta algo de 1 a 100 nanómetros en 250 veces 000, obtendrá un centímetro 2,5. La nanotecnología es el equivalente a una persona con una órbita alta de la ISS que intenta controlar cosas del tamaño de un grano de arena o globo ocular. Para llegar al siguiente nivel, el control de los átomos individuales, el gigante tendrá que colocar cuidadosamente los objetos con un diámetro de 1 / 40 de un milímetro. La gente común necesitará un microscopio para verlos.

Richard Feynman habló sobre nanotecnología por primera vez en 1959. Luego dijo: “Los principios de la física, por lo que puedo decir, no hablan en contra de la posibilidad de controlar las cosas átomo a átomo. En principio, un físico podría sintetizar cualquier sustancia química registrada por un químico. Como Colocando los átomos donde el químico dice para obtener la sustancia ". Esto es todo simplicidad. Si sabes cómo mover moléculas individuales o átomos, puedes hacer casi todo.

Las nanotecnologías se convirtieron en un campo científico serio en 1986, cuando el ingeniero Eric Drexler presentó sus fundamentos en su libro fundamental "Máquinas de la Creación", sin embargo, el propio Drexler cree que aquellos que quieran aprender más sobre las ideas modernas en nanotecnología deberían leer su libro 2013 del año " Abundancia total ”(Abundancia radical).

Unas palabras sobre el "moco gris"
Profundizar en nanotecnología. En particular, el tema del "goo gris" es uno de los temas no más agradables en el campo de la nanotecnología, sobre el cual no se puede hablar. En las versiones antiguas de la teoría de la nanotecnología, se propuso un método a nanoescala, que incluía la creación de billones de diminutos nanorobots que trabajarían juntos para crear algo. Una de las formas de crear billones de nanorobots es crear uno que pueda reproducirse, es decir, de uno a dos, de dos a cuatro, y así sucesivamente. Unos billones de nanorobots aparecerán en un día. Tal es el poder del crecimiento exponencial. Divertido no es?

Es divertido, pero exactamente hasta que lleva a un apocalipsis. El problema es que el poder del crecimiento exponencial, que lo hace bastante conveniente para crear rápidamente un billón de nanobots, hace que la autorreplicación sea algo terrible en perspectiva. ¿Qué pasa si el sistema se apaga, y en lugar de detener la replicación en un par de billones, los nanobots continuarán multiplicándose? ¿Qué pasa si todo este proceso es dependiente de carbono? La biomasa de la Tierra contiene átomos de carbono 10 ^ 45. El nanobot debe consistir en el orden de los átomos de carbono 10 ^ 6, por lo que los nanobots 10 ^ 39 devorarán toda la vida en la Tierra, y esto ocurrirá solo en las replicaciones de 130. Un océano de nanobots ("goo gris") inundará el planeta. Los científicos creen que los nanobots se pueden replicar en 100 segundos, lo que significa que un simple error puede matar a toda la vida en la Tierra en tan solo 3,5 horas.

Puede ser peor, si las nanotecnologías son alcanzadas por las manos de terroristas y especialistas desfavorables. Podrían crear varios billones de nanobots y programarlos para que se diseminen en silencio alrededor del mundo en un par de semanas. Luego, con solo hacer clic en un botón, en solo 90 minutos se comen todo, sin posibilidad alguna.

Aunque esta historia de terror ha sido ampliamente discutida durante muchos años, la buena noticia es que esta es solo una historia de horror. Eric Drexler, quien acuñó el término "goo gris", dijo recientemente lo siguiente: "A la gente le encantan las historias de terror, y esta está en la categoría de historias de miedo sobre zombies. Esta idea en sí ya está comiendo cerebros ".

Después de llegar al fondo de la nanotecnología, podemos usarlos para crear dispositivos técnicos, ropa, alimentos, bioproductos, células sanguíneas, combatientes contra virus y cáncer, tejido muscular, etc., cualquier cosa. Y en el mundo que utiliza la nanotecnología, el costo del material ya no estará vinculado a su escasez o complejidad del proceso de fabricación, sino a la complejidad de la estructura atómica. En el mundo de la nanotecnología, un diamante puede convertirse en un borrador más barato.

Aún no estamos cerca. Y no está del todo claro, subestimamos o sobreestimamos la complejidad de este camino. Sin embargo, todo va al hecho de que la nanotecnología no está muy lejos. Kurzweil sugiere que para los años 2020 los tendremos. Los estados del mundo saben que las nanotecnologías pueden prometer un gran futuro y, por lo tanto, invertir miles de millones en ellas.

Solo imagine las posibilidades que obtendrá una computadora súper inteligente si llega a un ensamblador confiable a nanoescala. Pero la nanotecnología es nuestra idea, y estamos tratando de aprovecharla, es difícil para nosotros. ¿Qué sucede si para el sistema ISI son solo una broma, y ​​el ISI en sí creará tecnologías que a veces serán más poderosas que cualquier otra cosa que generalmente podamos asumir? Acordamos: nadie puede asumir de qué será capaz la inteligencia artificial artificial. Se cree que nuestros cerebros son incapaces de predecir incluso el mínimo de lo que será.

¿Qué podría hacer la IA por nosotros?



Armado con la superinteligencia y todas las tecnologías que la superinteligencia podría crear, ICI probablemente podrá resolver todos los problemas de la humanidad. ¿Calentamiento global? ISI primero detendrá las emisiones de carbono al inventar una serie de formas eficientes de producir energía que no esté asociada con los combustibles fósiles. Luego se le ocurrirá una manera efectiva e innovadora de eliminar el exceso de CO2 de la atmósfera. ¿Cáncer y otras enfermedades? No es un problema: el cuidado de la salud y la medicina cambiarán de una manera que es imposible de imaginar. Hambre del mundo? ICI utilizará la nanotecnología para crear carne idéntica a la natural, desde cero, la carne real.

Las nanotecnologías podrán convertir un montón de basura en un recipiente de carne fresca u otro alimento (no necesariamente en una forma familiar, imaginen un cubo de manzana gigante) y diseminar todo este alimento en todo el mundo utilizando sistemas de transporte avanzados. Por supuesto, será genial para los animales que ya no tienen que morir por la comida. ICI también puede hacer muchas otras cosas, como salvar especies en peligro de extinción o incluso regresar del ADN almacenado. El CII puede resolver nuestros problemas macroeconómicos más difíciles, nuestro debate económico más difícil, la ética y la filosofía, el comercio mundial, todo esto será dolorosamente obvio para el CII.

Pero hay algo especial que CII podría hacer por nosotros. Seductor y burlón que cambiaría todo: CII puede ayudarnos a lidiar con la mortalidad. Poco a poco, aprovechando las posibilidades de la IA, también puede reconsiderar todas sus ideas sobre la muerte.

La evolución no tenía motivos para prolongar nuestra vida útil más de lo que es ahora. Si vivimos lo suficiente para dar a luz y criar a los hijos hasta el punto de poder defenderse, esta evolución es suficiente. Desde un punto de vista evolutivo, 30 + tiene suficientes años para desarrollarse, y no hay razón para que las mutaciones prolonguen la vida y reduzcan el valor de la selección natural. William Butler Yates llamó a nuestra especie "alma unida a un animal moribundo". No es muy divertido.

Y como todos morimos algún día, vivimos con el pensamiento de que la muerte es inevitable. Pensamos en envejecer con el tiempo, seguir avanzando y no poder detener este proceso. Pero el pensamiento de la muerte es traicionero: capturado por ella, nos olvidamos de vivir. Richard Feynman escribió:

“Hay algo maravilloso en la biología: no hay nada en esta ciencia que pueda hablar de la necesidad de la muerte. Si queremos crear una máquina de movimiento perpetuo, entendemos que hemos encontrado suficientes leyes en la física, que indican la imposibilidad de esto o que las leyes están equivocadas. Pero en biología no hay nada que indique la inevitabilidad de la muerte. Esto me lleva a creer que no es tan inevitable, y es solo una cuestión de tiempo antes de que los biólogos encuentren la causa de este problema, esta terrible enfermedad universal, se curará ".

El hecho es que el envejecimiento no tiene nada que ver con el tiempo. El envejecimiento es que los materiales físicos del cuerpo se desgastan. Algunas partes del automóvil también se degradan, pero ¿es inevitable este envejecimiento? Si repara el automóvil a medida que se desgastan las piezas, funcionará para siempre. El cuerpo humano no es diferente, solo que más complicado.

Kurzweil habla sobre nanobots inteligentes conectados a Wi-Fi en el torrente sanguíneo que podrían realizar innumerables tareas de salud humana, incluida la reparación regular o el reemplazo de células desgastadas en cualquier parte del cuerpo. Si mejora este proceso (o encuentra una alternativa propuesta por una ICI más inteligente), no solo mantendrá su cuerpo sano, sino que también puede revertir el envejecimiento. La diferencia entre el cuerpo del niño de 60 años y el de 30 años reside en un puñado de momentos físicos que podrían corregirse con la tecnología adecuada. ISI podría construir un automóvil que una persona visitaría cuando tenía 60 años, y salir con un 30 años.

Incluso un cerebro degradante podría actualizarse. ISI seguramente sabría cómo hacer esto sin afectar los datos del cerebro (personalidad, recuerdos, etc.). El niño de 90, que padece una degradación cerebral completa, podría volver a entrenarse, actualizarse y regresar al comienzo de su carrera. Esto puede parecer absurdo, pero el cuerpo es un puñado de átomos, y el CID probablemente podría manipularlos fácilmente con cualquier estructura atómica. No todo es tan absurdo.

Kurzweil también cree que los materiales artificiales se integrarán cada vez más en el cuerpo a medida que el tiempo avanza. Para empezar, los órganos podrían ser reemplazados por versiones de máquinas súper avanzadas que funcionarían para siempre y nunca fallarían. Entonces podríamos hacer un rediseño completo del cuerpo, reemplazar los glóbulos rojos con nanobots ideales que se moverían solos, eliminando la necesidad de un corazón en general. También podríamos mejorar nuestras habilidades cognitivas, comenzar a pensar miles de millones más rápido y obtener acceso a toda la información disponible para la humanidad utilizando la nube.

Las posibilidades para comprender nuevos horizontes serían verdaderamente ilimitadas. Las personas han logrado dotar al sexo con una nueva cita, se dedican a ella por placer y no solo para la reproducción. Kurzweil cree que podemos hacer lo mismo con la comida. Los nanobots pueden brindar una nutrición perfecta directamente a las células del cuerpo, permitiendo que las sustancias no saludables pasen a través del cuerpo. El teórico de la nanotecnología Robert Freitas ya ha desarrollado un reemplazo para las células sanguíneas que, cuando se implementa en un cuerpo humano, puede permitirle no respirar durante minutos 15, y esto fue inventado por el hombre. Imagínate cuando el poder obtiene ICI.

Después de todo, Kurzweil cree que las personas alcanzarán un punto en el que se volverán completamente artificiales; el momento en que veremos los materiales biológicos y pensaremos cuán primitivos fueron; el momento en que leeremos acerca de las primeras etapas de la historia humana, maravillándonos de cómo los microbios, accidentes, enfermedades o simplemente la vejez podrían matar a una persona contra su voluntad. Al final, la gente derrotará su propia biología y se volverá eterna: este es el camino hacia el lado feliz del rayo de equilibrio, del cual estamos hablando desde el principio. Y la gente que cree en él también está segura de que este futuro nos espera muy, muy pronto.

Ciertamente no se sorprenderá de que las ideas de Kurzweil atrajeran severas críticas. Su singularidad en el año 2045 y la subsiguiente vida eterna para las personas se denominó "la ascensión de los nerds" o "la creación racional de las personas con el IQ 140". Otros cuestionaron el calendario optimista, la comprensión del cuerpo humano y el cerebro, le recordaron la ley de Moore, que aún no llega a ninguna parte. Por cada experto que cree en las ideas de Kurzweil, hay tres que creen que está equivocado.

Pero lo más interesante de esto es que la mayoría de los expertos que no están de acuerdo con él generalmente no dicen que esto sea imposible. En lugar de decir "tonterías, esto nunca sucederá", dicen algo así como "todo sucede si llegamos al ISI, pero eso es sólo la trampa". Bostrom, uno de los expertos reconocidos de AI que advierte sobre los peligros de la IA, también reconoce:

“Es poco probable que haya al menos algún problema que la superinteligencia no pueda resolver o al menos nos ayude a resolver. Las enfermedades, la pobreza, la destrucción del medio ambiente, el sufrimiento de todo tipo, toda esta súper inteligencia con la ayuda de la nanotecnología podrá resolverlo en un momento. Además, la superinteligencia nos puede dar una vida útil ilimitada deteniendo e invirtiendo el proceso de envejecimiento, utilizando la nanomedicina o la capacidad de cargarnos en la nube. La superinteligencia también puede crear oportunidades para un aumento infinito en las posibilidades intelectuales y emocionales; Él puede ayudarnos a crear un mundo en el que viviremos con alegría y comprensión, acercándonos a nuestros ideales y cumpliendo nuestros sueños con regularidad ".

Esta es una cita de uno de los críticos de Kurzweil, sin embargo, reconociendo que todo esto es posible si logramos crear un ISI seguro. Kurzweil simplemente determinó lo que debería ser la inteligencia artificial, si alguna vez es posible. Y si es un buen dios.

La crítica más obvia a los partidarios de la "zona de confort" es que pueden estar muy equivocados al evaluar el futuro de ICI. En su libro Singularity, Kurzweil dedicó las páginas 20 de 700 a las posibles amenazas ISI. La pregunta no es cuando llegamos al ISI, la pregunta es cuál será su motivación. Kurzweil responde a esta pregunta con cautela: “El ISI surge de muchos esfuerzos dispares y se integrará profundamente en la infraestructura de nuestra civilización. De hecho, se integrará estrechamente en nuestro cuerpo y cerebro. Reflejará nuestros valores, porque será uno con nosotros ".

Pero si la respuesta es, ¿por qué hay tanta gente inteligente en este mundo preocupada por el futuro de la inteligencia artificial? ¿Por qué Stephen Hawking dice que el desarrollo de ICI "puede significar el fin de la raza humana"? Bill Gates dice que "no entiende a las personas que no están preocupadas" por esto. Elon Musk teme que "llamemos al demonio". ¿Por qué muchos expertos consideran que ISI es la mayor amenaza para la humanidad?

De esto hablaremos la próxima vez.

Basado en waitbutwhy.com, compilado por Tim Urban. El artículo utiliza materiales de Nick Bostrom, James Barrat, Ray Kurzweil, Jay Niels-Nilsson, Stephen Pinker, Vernor Vinge, Moshe Vardy, Russ Roberts, Stuart Armstroh y Kai Sotal, Susan Schneider, Susan Schneider, Schweider, Víctor, Víctor, Víctor, Juzgado, Víctor, Víctor, Juzgado, Víctor, Víctor, Estéreo, Víctor, Tete, Armetero, Telas, Armstrong, Telas, Armarios, Víctor, Juzgado, Víctor, Juzgado, Víctor, Gatos Marcus, Carl Schulman, John Searle, Jaron Lanier, Bill Joy, Kevin Keli, Paul Allen, Stephen Hawking, Kurt Andersen, Mitch Kapor, Ben Herzel, Arthur Clarke, Hubert Dreyfus, Ted Greenwald, Jeremy Howard.
Nuestros canales de noticias

Suscríbete y mantente al día de las últimas novedades y los eventos más importantes del día.

60 comentarios
información
Estimado lector, para dejar comentarios sobre la publicación, usted debe login.
  1. +12
    13 Agosto 2016 05: 37
    Sugiero que el autor en la próxima historia hable sobre el dios emperador de Warhammer 40000.
    Y eso, ni se indican ejemplos de experimentos modernos, ni el estado actual de desarrollo. A todos les encanta soñar.
    Créeme, este es un tema muy interesante, especialmente si hacemos analogías entre Rusia y el Imperio, el oscuro Eldar y Occidente.
    Y los dibujos se pueden encontrar en la Web mucho más interesantes.
    1. 0
      14 Agosto 2016 23: 28
      El artículo es filosófico, por lo tanto, es INCORRECTO ser crítico al nivel de su percepción. Por cierto, muchas leyes filosóficas reales están excluidas por fórmulas matemáticas y definiciones físicas. Sin embargo, ellos, las leyes filosóficas, existen y funcionan. El hecho es que las matemáticas permiten reducciones, y las excepciones físicas
  2. +2
    13 Agosto 2016 05: 59
    La inteligencia artificial dará inmortalidad a los ricos, quienes serán atendidos por máquinas y un número limitado de sirvientes vivos. ¡Pero qué aburrida será su vida!
    1. +9
      13 Agosto 2016 07: 00
      Una vez que los "ricos" obtengan la inmortalidad, ya no necesitarán riquezas. Especialmente si se crea un "nano-colector". El problema es cuánto costará la "nanoización" primaria de una persona. Si es muy caro, entonces, sí, solo los más ricos se convertirán en superhombres y todos los demás los odiarán. Si no es muy caro, entonces habrá un problema de selección, a quién dar la inmortalidad, a quién no. ¿Cuál es el mérito si no hay suficiente dinero? Finalmente, si el precio es igual al de la vacuna contra la gripe, entonces ... nuevamente habrá un problema de selección (¿qué hacer con los tontos, si, digamos, no se pueden corregir con métodos de nanotecnología? Pero si los arreglan y se vuelven inteligentes y hermosos, el problema permanecerá. que básicamente no quieren ser cyborgs. Y aún necesitarán fábricas, campos, también contaminarán la naturaleza y odiarán a los superhombres. En teoría, deberían ser destruidos. Pero esto no es humano. ¿Qué hacer?
      1. +4
        13 Agosto 2016 11: 36
        Homero analizó en detalle la comprensión filosófica del tema de la "inmortalidad". Basta recordar cómo los dioses se arrepintieron de ser mortales. No pudieron apreciar el pasado, el presente, el futuro, porque es eterno. Por lo tanto, se sintieron atraídos por personas que apreciaron el momento, apreciaron la vida. Recordemos a Ulises, a quien se le ofreció la eterna juventud. una diosa femenina eternamente joven y hermosa, pero eligió la familia, la vida mortal y una esposa anciana. Para ser justos, debo decir que la elección para él fue oh, qué difícil. ¡¡¡Se determinó por 7 años !!! Entonces, queridos usuarios del foro, las personas que viven eternamente, como los dioses inmortales del Olimpo, nos envidiarán a los mortales.
  3. +3
    13 Agosto 2016 06: 14
    Me uno, no hay detalles. En VO, los detalles son diferentes, la filosofía no es bienvenida.
  4. +2
    13 Agosto 2016 06: 44
    Y si será un buen dios.

    Cuando aparezca la IA, se convertirá en un dios. ¿No crees que puedes controlarlo? ..)
    Eric Drexler presentó sus conceptos básicos en su libro fundamental Machines of Creation.

    Leí este libro, las perspectivas descritas allí son asombrosas.
    1. +3
      13 Agosto 2016 07: 05
      Les di la tarea a los estudiantes de idear una nueva religión para el futuro cercano. Y lo estudiaron todo y decidieron que sería ... "maquinismo". ¡Gran máquina que responde a cualquier pregunta! Los "maquinistas" son sus sacerdotes, los "mecanógrafos" son "lubricantes". Y así. El emblema es un engranaje, en él está inscrita una cruz, en la base de la cual hay 4 medias lunas. -¡Es gracioso!
      1. +4
        13 Agosto 2016 09: 01
        Y como ya hemos establecido que es absolutamente inútil tratar de entender el poder de una máquina que está solo dos pasos por encima de nosotros, definamos de una vez por todas que no hay manera de entender qué hará ICI y cuáles serán las consecuencias para nosotros. Cualquiera que afirme lo contrario simplemente no entiende lo que significa la superinteligencia.

        Creo que sus alumnos dibujaron una imagen bastante plausible, pero la IA será autosuficiente, no necesitará que la gente adore, sino que los usará para sus propios fines. A medida que se desarrolla, creo que irá al océano, resultará algo así como Solaris ...)
        S. Lem también quedó impresionado por la historia, que decía que la información tiene una masa crítica. Y cuando lo alcance, se autodestruirá.
    2. 0
      8 noviembre 2016 19: 13
      Cuando aparezca la IA, se convertirá en un dios.


      Si descartamos la visión religiosa, el concepto de Dios (es decir, el uno) es un concepto estrictamente formalizado. Este concepto tiene un conjunto de sus características. Bueno, el sistema de inteligencia artificial no podrá responder ni la mitad de estas características de ninguna manera, por lo que no puede ser Dios por definición ... *)
  5. +1
    13 Agosto 2016 07: 26
    Inmortalidad. La transferencia de la conciencia a un portador, una máquina, no importa de qué tipo, autónoma o algo así como un servidor con miles de millones de conciencias, una especie de muerte. En el peor de los casos, la esclavitud, el destino de un juguete. Una especie de granja de hormigas. Renovar el cuerpo - ¿crear elfos? Entonces, ¿qué pasará en la tierra dentro de mil años? Una rama de barril con un arenque y no el hecho de que un arenque pacífico. Y lo más probable es que los elfos jueguen "granja" o "var total" de alguna manera. "Inmortales". Así que es lo mismo "Todos moriremos".
  6. +1
    13 Agosto 2016 09: 14
    Oda a las tonterías! ¿Qué es la superinteligencia? La inteligencia es algo cercano al pensamiento humano. No hay tales sistemas. Solo hay imitaciones. ¿Qué pasa con la superinteligencia? ¿Por qué se cree que más rápido significa terminar? La búsqueda más rápida de opciones, incluso mediante un algoritmo único, no es inteligencia, pero TODOS los sistemas cuasi-inteligentes modernos funcionan así: algoritmo y velocidad.
    1. El comentario ha sido eliminado.
    2. +2
      13 Agosto 2016 12: 31
      Cita: xorgi
      Oda a las tonterías! ¿Qué es la superinteligencia? La inteligencia es algo cercano al pensamiento humano. No hay tales sistemas. Solo hay imitaciones.

      Es bueno leer tu comentario. +
      Cita: xorgi
      ¿Por qué se cree que más rápido significa terminar? Búsqueda más rápida de opciones, incluso con un algoritmo único, no es inteligencia,

      Así es, es combinatoria. Hasta AI, hasta Plutón a la velocidad de un peatón.
      hi
      Volveré a publicar este video, aparentemente nadie se molestó en ver los Me gusta, ya ves, las calificaciones. . .
      Dice el Dr. Ciencias Biológicas, prof. S.V Savelyev, embriólogo, neuromorfólogo. Es una pena que los sacerdotes y los charlatanes aparezcan en la televisión con más frecuencia que los científicos.
      1. +3
        13 Agosto 2016 13: 52
        ¡El ajedrez no es un juego intelectual! ¡Mira a Kasparov! - Sí, ¡solo por esta frase puedes dar una medalla!
    3. 0
      13 Agosto 2016 18: 05
      xorgi

      No leíste el artículo detenidamente. Sobre lo que escribiste allí meticulosamente desmontado.
  7. +3
    13 Agosto 2016 09: 21
    Ya tenemos progreso en el ISI
    Inmunidad informática creada

    En Tomsk, desarrollaron inteligencia artificial que puede detectar independientemente software malicioso sin la ayuda de sistemas antivirus.

    La inmunidad adaptativa del sistema operativo (AIOS) también puede determinar la autoría del virus mediante el análisis del código del programa. Los científicos tienen la intención de demostrar que las propias compañías de antivirus escriben virus que amenazan nuestras computadoras.

    Según los expertos, la mayoría de los usuarios gastan de cuatro a seis mil rublos al año para proteger sus computadoras. Al mismo tiempo, casi mensualmente aparecen nuevos virus que amenazan la "salud" de las PC. Están en constante evolución, pueden autoaprenderse y cambiar su comportamiento.

    “Nuestra encuesta entre los usuarios mostró que el 65% de ellos no confía en los antivirus existentes debido a la falta de transparencia en su trabajo”, dijo a RG Evgeny Garin, jefe del departamento de propiedad intelectual de TUSUR. - Por ejemplo, los antivirus tienen acceso a absolutamente todas las secciones de unidades y RAM, es decir, incluidos nuestros datos personales.

    Los antivirus populares no tienen características de detección de malware. Solo pueden encontrar el virus que ya se conoce y se enumera en la biblioteca. Por lo tanto, necesitan actualizaciones periódicas. Mientras tanto, el malware que aún no está en estas bases de datos permanece sin ser detectado.

    El principio principal de AIOS es identificar elementos de inteligencia artificial en los programas.

    "Los algoritmos desarrollados en TUSUR nos permiten detectar en el código del programa la capacidad del cuerpo del virus para copiarse a sí mismo y otros signos de un sistema autorregulador similar a un organismo vivo", informa el servicio de prensa de organizaciones innovadoras de la región de Tomsk.

    “Nuestro programa se puede comparar con un sistema inmunológico real”, explica Evgeny Garin. - El antivirus estándar "va por pastillas" a la tienda de su fabricante. Si no hay cura para esta infección en particular, la computadora morirá, porque no tiene su propia "inmunidad". AIOS comprueba el código del programa en busca de señales de malware, actuando como una defensa inmune.

    Según los desarrolladores, en el futuro, la inmunidad artificial reconocerá el 100% de los virus. Usando el sistema, los científicos compilarán una biblioteca de un rastro semántico individual de programadores que escriben código malicioso. El cazador de virus no solo estudiará su comportamiento y se aislará, sino que también buscará al autor de estos programas e informará sobre sus actividades a las agencias policiales.

    "Nuestra tarea principal es detener la ortografía de los virus por parte de las propias compañías antivirus para actualizar la demanda de su software", dice Evgeny Garin. - Es posible que entre fabricantes de antivirus y fabricantes de sistemas operativos haya una cierta conspiración. Por lo tanto, planeamos integrar nuestra inmunidad adaptativa en los sistemas operativos nacionales como parte del programa de sustitución de importaciones.

    Los científicos tienen la intención de asociarse con fabricantes de sistemas operativos domésticos y lanzar computadoras que ya tengan inmunidad incorporada. Esto protegerá a los consumidores finales no solo de virus sino también de fabricantes sin escrúpulos de software antivirus. Al mismo tiempo, los usuarios no necesitarán gastar dinero anualmente para actualizar el sistema.

    Los desarrolladores creen que la introducción de la inmunidad adaptativa permitirá que nuestros sistemas operativos compitan con líderes del mercado como Windows, Linux, Android e iOS.

    El proyecto AIOS ya ha atraído a varios inversores potenciales. En un futuro próximo, representantes de una de las compañías vendrán a Siberia para conocer más detalladamente el proyecto.
    1. +2
      13 Agosto 2016 11: 45
      Cita: Vadim237
      Inmunidad informática creada

      Lo siento ... Asociaciones ...
      Ya estaba ... riendo En un momento, el conocido estudiante Babushkin escribió el antivirus "Immunity". Es cierto que los antivirus reales se definieron como virus. Lo más picante es que el autor recibió una beca no enfermiza, además de que su padre (no la última persona en una universidad médica) "implementó" este antivirus en máquinas de trabajo y, en consecuencia, pagó el soporte técnico con cargo al presupuesto. El análisis detallado se realizó en anti-malware.ru y Habrahabr. Los chicos se rieron durante mucho tiempo de la tecnología "E * y gansos" ...
    2. +3
      13 Agosto 2016 18: 13
      Es decir, simplemente cambiaron el concepto de software antivirus. Si el primero escanea la computadora en busca de "marcadores" de la biblioteca, entonces el software Tomsk debería buscar códigos maliciosos. Probablemente comparando con los de la biblioteca.

      Cosido con jabón. Pero llamaron AI.
  8. +2
    13 Agosto 2016 10: 04
    Teniendo en cuenta que la naturaleza moral de una persona no cambia no solo durante su vida, sino incluso con el "progreso" de las relaciones sociales, uno puede esperar la aparición de IA ... una disminución en el número de comentaristas en el sitio.
    En lugar de poner un oponente "-", simplemente puedes darle el comando a la IA para descomponer el vil en átomos, o crear un cubo de manzana a partir de él.
    Simple y convincente.
    Hagas lo que haga una persona, aún obtienes un rifle de asalto Kalashnikov. Es cierto, bueno, oochen grande. :-)
    Aquí tiene la transición del tema del autor a un tema específico de nuestro sitio.
    1. 0
      13 Agosto 2016 18: 18
      kunstkammer

      Has cometido un error, amigo.

      El hombre se controla cambiando su moralidad. No habría guerra ni desacuerdos en el mundo si todos tuvieran valores morales comunes.

      Puedes obtener un súper país si la gente inculca valores morales comunes.
  9. +3
    13 Agosto 2016 10: 09
    Si hablamos de algún tipo de salto cualitativo, entonces no lo asociaría con la IA, o incluso con la tecnología, sino con un aumento en la eficiencia de la civilización, su racionalidad. Por el momento, solo se observa su disminución. La razón principal de esto no es ni siquiera el crecimiento exponencial de un entorno tecnogénico ineficiente, sino el principio mismo de la cognición, cuando nos sumergimos por primera vez en un problema y luego comenzamos a buscar al menos alguna solución.
    1. +2
      13 Agosto 2016 17: 44
      Estoy de acuerdo con este pensamiento. Pienso de la misma manera.
  10. +1
    13 Agosto 2016 10: 35
    Dejaremos la pregunta de si es posible, en principio, crear un FIS y si se creará, digamos que sí.
    La primera pregunta sobre la interacción de FIC es el hombre. Para mayor claridad, imaginemos a SII como persona y al hombre como perro.
    Dejemos de lado el caso en el que el perro simplemente subyuga a los dueños y los obliga a actuar más o menos en sus propios intereses, a pesar del "nivel de superioridad", también necesitamos voluntad y carácter, eso no nos preocupa ahora.
    Puedes conseguir un perro para un propósito u otro, entrenar y enseñar cierto comportamiento, luego vas a trabajar, y cuando vuelves a casa ves tu sofá favorito hecho pedazos, ¿qué es? Ella lo quería a pesar del entrenamiento y la educación. ¿Este comportamiento te trae algún inconveniente? Sí, ¿lucharás contra él? Sí. Aparentemente, SII, habiendo encontrado uno similar, comenzará la selección y reproducción de razas humanas con las características y parámetros necesarios. ¿Esta persona será la misma que ahora? Sí, pero la diferencia será algo así como entre un lobo y un caniche. Por cierto, mirando la diversidad de razas, grupos étnicos y sus características, en mi opinión se puede decir que SRI ha existido durante mucho tiempo y está criando a la humanidad en algunos de sus intereses.
    La segunda pregunta es la competencia. Como saben, la lucha intraespecífica siempre es más dura que entre especies. Si asumimos que se crearán simultáneamente varios centros independientes para la distribución de FIS, y este es el caso más probable, entonces es lógico esperar competencia y lucha intraespecífica de ellos. Es difícil imaginar qué forma tomará y si sus objetivos serán accesibles al entendimiento de la gente. ¿Se utilizará a la gente en esta pelea? Lo más probable es que sí. De qué forma, pienso, como de costumbre, en forma de "exterminio de enemigos". Incl. el futuro será interesante, pero probablemente no tan despejado.
    1. 0
      13 Agosto 2016 18: 19
      Con la misma probabilidad, se puede suponer que la interacción futura con FIS será interesante para las personas por muy poco tiempo. Si usa su analogía con un perro, su uso por una persona finalmente desaparece. En las etapas iniciales de desarrollo, el perro utilizó activamente al perro, y con el crecimiento del progreso tecnológico, la necesidad de un perro desaparece gradualmente.
      Sin embargo, si la mejora de la IED se produce de manera exponencial, muy pronto la IED dejará de necesitarnos y pasaremos rápidamente de la categoría de perro a la de insectos. Bueno, entonces estamos esperando análogos de refugios para perros o simplemente liquidación. ¿Por qué es una fuerza para arrastrarnos a algún lugar hacia el futuro brillante es completamente incomprensible? A menos que sea por un breve experimento ...
      ¿Quizás todo esto es, desde el comienzo de la evolución, un experimento con la creación de otro FIS?
      1. 0
        13 Agosto 2016 18: 33
        Sí, generalmente correcto. Creo que lo más probable es que simplemente seamos abandonados en el planeta y el SRI se apresure "a distancias desconocidas", simplemente no hay necesidad de que se asiente en el suelo.
        Pero esto es cierto en un vacío esférico. Creo que algunas "tres leyes" se integrarán inicialmente en cualquier sistema, restringiendo fuertemente o prohibiendo directamente ciertas acciones e incluso, aparentemente, reflejos. De lo contrario, no tiene sentido, el retorno comercial del proyecto será cero o negativo, no se dará mucho dinero por esto.
        1. 0
          13 Agosto 2016 19: 54
          Si simplemente renuncian, entonces no está mal. Esperemos que la necesidad de IED en los recursos de nuestro planeta no se vuelva crítica para nosotros.
          Entonces hay alguna esperanza de que en este caso tengamos los restos de tecnologías casi singulares, entonces teóricamente podemos, al actualizar la inteligencia humana, llevar a nuestros representantes individuales al nivel sobrehumano. Por supuesto, ellos también irán a una distancia desconocida, pero esto es al menos algún tipo de esperanza))
    2. 0
      13 Agosto 2016 18: 23
      chunga-changa

      Me parece que si espera, en la próxima publicación se analizará esa pregunta que planteó.

      Aquellos. La presencia y la forma de Dios. Una pregunta muy significativa. Además, absolutamente todos en el mundo enfrentaron manifestaciones del destino.
      1. 0
        13 Agosto 2016 18: 36
        Sabes, realmente no creo en todo esto, el destino, Di-s, etc.
        La creación de IA es un área de ciencias aplicadas, matemáticas, filosofía y ética, los temas de fe están fuera de lugar aquí.
        1. +1
          13 Agosto 2016 19: 09
          chunga-changa

          La manifestación del destino es una cosa objetiva y no depende de su conciencia. Aquellos. Por ejemplo, al analizar mi vida, cada vez tengo más confianza en darme cuenta de que lo que descubrí fue desde la primera infancia, hasta donde puedo recordar. Aquellos. De hecho, me veo como un biorobot, que realiza la voluntad de los demás con una secuencia inmutable.

          Esto se llama destino. De ahí la pregunta. ¿Y quién necesita todo esto? Mozh ya existe esa inteligencia que se predice para 2025. Y lo más probable es que no se permita crear competencia. Aunque también puede querer tener un interlocutor igual. :)

          Oh ... no hay fe ... Incluso cerca. Las cuestiones religiosas no son del campo de la IA. Hay algo completamente diferente.
  11. -3
    13 Agosto 2016 11: 07
    El autor no comprende la esencia de lo que está sucediendo. ICI nunca aparecerá en la Tierra, ya que el hombre no puede hacer algo más inteligente que él.
    Sí, será posible crear un robot que se verá como una persona, copiar sus acciones, responder preguntas, hablar, pero hará todo esto de acuerdo con el programa que la gente ha escrito. La IA no puede fantasear y sentirse como personas, ya que este es un conjunto de programas que la gente le preguntó.
    Por ejemplo, un robot humanoide podrá sonreír, pero sonreirá no porque sea feliz, sino porque esta acción está configurada en el programa. Es por eso que es poco probable que surja una IA similar a la IA una vez, y la ICI nunca surgirá, ya que esto está limitado por las capacidades de nuestro cerebro.
    1. +3
      13 Agosto 2016 12: 36
      ¿De qué tipo de inteligencia artificial podemos hablar cuando nadie comprende que existe un mecanismo para la percepción de la información, su procesamiento y aplicación por el cerebro humano? Y este mecanismo, como su trabajo, debe describirse en un lenguaje determinado que no pueda asociarse con ninguna fantasía o expresión figurativa. Este es el lenguaje de los números. Y la humanidad ni siquiera posee todas las propiedades de los números, a saber, la función de su valor constante. Por lo tanto, aparecerán primero personas que serán mucho más capaces de analizar los eventos que los rodean, y solo entonces será posible ver los conceptos básicos de dicho análisis que se pueden repetir en la reproducción de la máquina.
  12. +1
    13 Agosto 2016 11: 26
    Solo el examen salvará al mundo de la aparición de ISI. riendo Pero si surge el ISI, lo primero que cancelará (destruirá) la propiedad privada de los medios de producción. Y la humanidad tomará por sí misma un aliado, no un socio.
  13. +1
    13 Agosto 2016 12: 45
    Lo primero que harán los robots, al llegar al poder, le dará a una persona todo lo que quiere. Mucha comida, vida ociosa, etc. Y una persona se degradará con el tiempo y se convertirá en un animal. Ya debe comprender claramente dónde puede dejar a los robots y dónde no. La humanidad en la lucha interespecífica con robots está condenada a la derrota.
  14. +3
    13 Agosto 2016 13: 28
    Toda esta serie de artículos se parece a RenTV.
    El hombre se diferencia del mono y otros animales en la presencia del pensamiento abstracto más el lenguaje para la comunicación, el registro y el aprendizaje, y las palabras del lenguaje denotan abstracciones y generalmente pensamos con la ayuda del lenguaje, o al menos usando abstracciones para las que hay nombres en el lenguaje. También tenemos una motivación biológica para pensar más que un vecino o una bestia en el bosque: "queremos" vivir agradablemente "en el chocolate", y no morir de hambre, congelarnos, enfermarnos y morirnos solos.
    No sabemos si hay algo más elevado que el pensamiento abstracto, lo más probable es que no haya nada más elevado. Por lo tanto, ¿de qué se trata la conversación? ¿Qué más es JII? Si una computadora domina el pensamiento abstracto y tiene una motivación para pensar de manera independiente, esto no significa que superará de inmediato a una persona y será una amenaza existencial para él. Existe un peligro, pero no exagere. Es necesario limitar cuidadosamente los poderes de las computadoras poderosas, por ejemplo, no darles botones nucleares y no dar control sobre las comunicaciones. Entonces serán solo autos inteligentes, y eso es todo.
    1. 0
      13 Agosto 2016 18: 28
      halcón

      Cuando una persona no piensa en la necesidad de sobrevivir, redirige sus esfuerzos a la creatividad.

      Por lo tanto, no importa lo bueno que seas, se buscan aventuras.
  15. +1
    13 Agosto 2016 15: 16
    Cita: Falcon5555

    No sabemos si hay algo más elevado que el pensamiento abstracto, lo más probable es que no haya nada más elevado.

    ¿Y de dónde sacas tanta confianza?
  16. -1
    13 Agosto 2016 16: 12
    Pero si la respuesta es, ¿por qué hay tanta gente inteligente en este mundo preocupada por el futuro de la inteligencia artificial? ¿Por qué Stephen Hawking dice que el desarrollo de ICI "puede significar el fin de la raza humana"? Bill Gates dice que "no entiende a las personas que no están preocupadas" por esto. Elon Musk teme que "llamemos al demonio". ¿Por qué muchos expertos consideran que ISI es la mayor amenaza para la humanidad?
    Muchos. Sí, Ponte proviene de pensamientos de exclusividad. Están afectados por este virus. Afeitarse la garganta, cortarse o atarse la corbata, estrangularse. Dae bi ly.
    Nuestro implementará y aplicará. Sin bla bla bla.
    1. 0
      14 января 2017 11: 15
      Cita: Prince_Pension
      Nuestro implementará y aplicará. Sin bla bla bla.
      Hasta ahora, nuestras únicas licitaciones han aprendido a anunciar y recortar el presupuesto bajo un fuerte "bla-bla-bla" sobre "no tener análogos en el mundo".
  17. 0
    13 Agosto 2016 18: 32
    Interesante serie de artículos. Bien traducido. Una forma típica occidental de construir oraciones. Buen estilo publicitario. Un mínimo de "aburrido" académico, atractivo con terminología difícil de recordar.

    Gracias al autor.
  18. Tit
    0
    13 Agosto 2016 19: 42
    vamos a definir el término describiremos la IA o será como allí

    1. 0
      13 Agosto 2016 20: 00
      El autor ya ha decidido la terminología. No debería haber alternativa.
  19. Tit
    +1
    13 Agosto 2016 20: 27
    Cita: gladcu2
    con terminología

    Cita: gladcu2
    El autor ya ha decidido sobre la terminología.

    bueno, quiero entender que físicamente en el gráfico subió tan alto la escalera

    1. ¿Rascacielos y muchas súper computadoras se están enfriando con sangre?
    2. una especie de android de screamers?
    3. ¿o mi PC está cerca de la estufa un nodo neuronal de un ser superior?
  20. +3
    13 Agosto 2016 22: 30
    Al igual que la primera parte de este artículo, el segundo en mi mente es una mierda.
    Y este sitio no tiene nada que ver, ni siquiera en el tema "Terminator".
  21. +2
    13 Agosto 2016 22: 34
    Una cosa solo tranquiliza que los especialistas en ISI con tal "conocimiento" ni siquiera construirán IA.

    Explique: "El filósofo de Oxford y destacado teórico de la inteligencia artificial Nick Bostrom piensa ..." Todas las especies están desapareciendo ". Bien ¿Cómo puedes hablar de eso? para informar que de alguna manera estudió este tema y al mismo tiempo no sé acerca de los procariotas: unicelulares inmortales (tienen dominios, clases, familias, géneros y especies) que no mueren, ¡sino que se dividen y comparten por más de 4,5 millones de años! !

    Además, son completamente desconocidos, a juzgar por la falta de mención, con la estabilidad de los sistemas, la importancia del entorno social y material en la actividad de la mente, e incluso la regla simple y, por lo tanto, universal, de que la reconstrucción es más complicada que la construcción; esto significa que cualquier autodesarrollo (reconstrucción ) ISI es más difícil que las capacidades de ISI y, por lo tanto, no es posible a largo plazo. La humanidad supera este obstáculo a expensas de la socialidad, estos mismos expertos parecen no adivinarlo (tal vez en la tercera parte lo habrá). Por cierto, debido a esta socialidad, el ISI se verá obligado a socializar, como toda persona, y será viable si se socializa con éxito, y no los monstruos que asustan a la ciencia ficción de Hollywood.
  22. 0
    14 Agosto 2016 09: 39
    El artículo es un recuento de COMPILACIONES de un puñado de fuentes escritas por cierto Tim Urban.
    ¿Quién es Tim Urban? Respuesta: "Tim Urban. Blogger estadounidense".
    Un blogger, solo un blogger, es decir, una persona cuyo trabajo es escribir artículos en Internet.
    En consecuencia, "Blogger cree que el agua se mide con un colador".
  23. 0
    14 Agosto 2016 12: 22
    El artículo es serio.
    Daré un ejemplo. Cuando era niño yo
    enseñó un poco de juego en Go (al nivel más básico), el juego japonés.
    Enseñó en la casa de campo a un pariente lejano, un matemático, ahora retirado, después de trabajar en Harvard.
    Recuerdo que entonces (allá por 1970) dijo: "Quizás se les ocurra
    una computadora que jugará ajedrez al nivel de campeones mundiales.
    Pero nunca, NUNCA se te ocurra una computadora que golpee a un hombre
    en Go, ya que la cantidad de opciones y el grado de abstracción en este juego es innumerable ".

    Este año, Comp con confianza, y varias veces, superó al campeón mundial en Go.
    1. 0
      14 Agosto 2016 12: 47
      que las matemáticas incrustadas en la computadora deben corresponder a las funciones de distribución, me llaman estúpido, pero luego eres respetado, expresando los problemas de la multivariancia. Además, otros excluyen la posibilidad de un análisis matemático general basado en la función de construir relaciones matemáticas algorítmicas y se basan en la matemática computacional como una panacea.
      Por lo tanto, la matemática del razonamiento humano no se calcula y se basa en cálculos integrales y diferenciales. ¡Es distributivo! Y le permite construir una relación tanto por vector como por potencial. Es mucho más simple y completamente preciso en su tarea de obtener respuestas que reflejen la realidad tal como está en el análisis.
      No hay nada sorprendente en el hecho de que una computadora pueda vencer a Guo. Solo cuente la totalidad del recurso gastado en esa persona y una computadora. Bueno, igual que los niños!
    2. Tit
      0
      14 Agosto 2016 15: 12
      Cita: voyaka uh
      Este año, Comp con confianza - y varias veces - venció a Go

      ¿Y la misma computadora (programa) puede jugar al ajedrez conmigo o al póker? Creo que no
      1. 0
        14 Agosto 2016 16: 58
        Es fácil poner muchas aplicaciones (programas) en una computadora.
        Para ajedrez, go, póquer y miles más. Él hará un "cambio"
        a una nueva tarea (exactamente cómo lo hace nuestro cerebro) y - adelante.
        Y él te repetirá (y a mí también), no hay duda.
        Dichos programas son de autoaprendizaje. Primero, la computadora copia tus tácticas,
        estilo, técnicas (autoaprendizaje) y comienza a aplicarlas en su contra. Juegas contigo mismo
        solo mejorado (la velocidad y precisión de ejecución de la computadora es obviamente mayor).
        Y la computadora comienza a presionarlo con sus propios métodos. Además, tiene guardado un recuerdo de oponentes anteriores.
        Y puede, si está cansado de torturar, "noquear" y la recepción de otra persona.
        Pero definitivamente jugará al "gato y el ratón". ¿Aprenderá algo nuevo de repente?
        En general, la IA no es un tipo de personalidad con un coeficiente intelectual grande, sino extremadamente vil, astuto, sin escrúpulos como un espejo y un tipo despiadado triste
        1. 0
          16 Agosto 2016 15: 56
          Después de superar al campeón mundial, se topó con el techo, no hay nadie de quien aprender. ¿Jugará consigo mismo? ¿O para enseñar a alguien? ¿O se te ocurre un nuevo juego?
          O espera para siempre hasta que alguien vuelva a sentarse enfrente
      2. El comentario ha sido eliminado.
  24. Tit
    0
    14 Agosto 2016 21: 19
    Cita: voyaka uh
    Y repetirte (y yo también)


    ¿Y en este juego podrás ganar?
  25. +1
    14 Agosto 2016 22: 21
    ¿Y por qué se usa AI en singular?
    Donde hay uno, hay miles de entidades.
    Y quién de ellos estará de nuestro lado, y quién está en contra, todavía lo veremos. Competencia y dominio, ya sabes ...

    Y el juego de mezquindad, fraude, vulgaridad y adulación de la humanidad está entrenado a la perfección. Juguemos con ellos (AI) este juego.
  26. +1
    14 Agosto 2016 22: 46
    Y luego, se ha dicho durante mucho tiempo, porque cada sabio es bastante simple.
  27. 0
    15 Agosto 2016 13: 47
    Cita: gladcu2
    Es decir, simplemente cambiaron el concepto de software antivirus. Si el primero escanea la computadora en busca de "marcadores" de la biblioteca, entonces el software Tomsk debería buscar códigos maliciosos. Probablemente comparando con los de la biblioteca.

    Cosido con jabón. Pero llamaron AI.


    Ya estoy de acuerdo Llamado análisis heurístico.
  28. 0
    22 Septiembre 2016 23: 35
    En cierta parte del artículo, sí, slons delirantes ...

    Explicaré mi opinión:
    1) Para crear una IA real del nivel de una persona (existente ahora), uno debe ser más inteligente, más inteligente que una persona (existente ahora), de hecho, elevarse a un nivel más alto, al nivel de un superhombre (o un nivel, como en este artículo, ISI).

    2) Por lo tanto, este evento no está cerca, ni mucho menos cerca, aunque lo estará - probablemente la mayoría de los Formuns estén familiarizados, al menos por artículos en Internet, con el fenómeno como niños "índigo", que son considerados personas del futuro, personas con superinteligencia. Aquellos. estos son aquellos que realmente pueden construir IA con el nivel de una persona viva.

    3) Para ser un objeto de autodesarrollo, uno debe volverse al menos independiente en el mundo material, uno debe aprender a sentir el mundo material, comprender al menos hasta cierto punto las necesidades de uno ... un algoritmo puro de "computadora", no importa cuán complejo sea, ni siquiera tendrá partes de la información para el autodesarrollo sin pasar por el camino de volverse independiente en este mundo material, es decir formas de desarrollo humano. Por supuesto, una persona puede ayudar en el desarrollo en esta dirección, pero incluso entonces y solo cuando vea el párrafo uno.
  29. 0
    22 de octubre 2016 20: 28
    Ahora no se necesita gente. No recuerdo al autor, pero recuerdo el título del libro "CD - un doble cibernético". El libro fue escrito en los años 70 y era inusualmente interesante. La superinteligencia mirará a una persona como una persona a un perro, a una criatura muy divertida pero no comprensiva. Dicen, se puede ver por los ojos que él entiende todo, pero no puede decirlo.
  30. 0
    24 de octubre 2016 18: 05
    El hombre vive en un mundo de percepción al nivel de la objetividad. Es decir, todos percibimos objetivamente, esto es esto o aquello. Pero todo en este mundo es inherente a la procesualidad. Es decir, todo está en proceso de transformación. Por lo tanto, una visión del mundo construida sobre los principios de la inseparabilidad de uno del otro crea la realidad y la adecuación de la percepción de la realidad. Esta es la base de las matemáticas basadas en la función de un valor constante de un número, que permite combinar una multitud y al mismo tiempo la individualidad. Sin los fundamentos de este conocimiento, AI no puede estar cerca
  31. 0
    11 noviembre 2016 09: 43
    Este Kurzweili me recordó a Chubais, también un charlatán engañoso y astuto.

    Se necesitan intentos para hacer que una persona sea inmortal para eliminar el dinero de los viejos ricos que, desde su última fortaleza, se aferran a la vida que pasa.

    El problema del envejecimiento es bien conocido y obvio: estos son errores en la replicación celular y un conjunto de desechos en exceso en los cromosomas con cada clonación.
    Si, de alguna manera, elimina errores, esto detendrá la evolución.

    La discusión sobre la razonabilidad y la superinteligencia de los motores de búsqueda y su dotación de inteligencia, lo mismo no retiene el agua, todo lo que pueden hacer es recopilar y expresar los pensamientos de otras personas.

    En realidad, el desarrollo de la humanidad se ha acelerado debido al acercamiento de las personas en una sociedad basada en Internet y ahora las personas no inventan bicicletas en todas las sociedades aisladas.

    En resumen, ¡una tormenta en un vaso!
  32. 0
    7 Agosto 2017 19: 53
    El Señor introdujo el intelecto en el mono, resultó ser un hombre. Así es como vivimos, presumimos como Dios y la esencia del mono. Observe los mandamientos de Dios, las puertas de la Mente se abrirán.

"Sector Derecho" (prohibido en Rusia), "Ejército Insurgente Ucraniano" (UPA) (prohibido en Rusia), ISIS (prohibido en Rusia), "Jabhat Fatah al-Sham" anteriormente "Jabhat al-Nusra" (prohibido en Rusia) , Talibanes (prohibidos en Rusia), Al-Qaeda (prohibidos en Rusia), Fundación Anticorrupción (prohibidos en Rusia), Sede de Navalny (prohibidos en Rusia), Facebook (prohibidos en Rusia), Instagram (prohibidos en Rusia), Meta (prohibida en Rusia), División Misantrópica (prohibida en Rusia), Azov (prohibida en Rusia), Hermanos Musulmanes (prohibida en Rusia), Aum Shinrikyo (prohibida en Rusia), AUE (prohibida en Rusia), UNA-UNSO (prohibida en Rusia) Rusia), Mejlis del Pueblo Tártaro de Crimea (prohibido en Rusia), Legión “Libertad de Rusia” (formación armada, reconocida como terrorista en la Federación Rusa y prohibida)

“Organizaciones sin fines de lucro, asociaciones públicas no registradas o personas físicas que desempeñen las funciones de un agente extranjero”, así como los medios de comunicación que desempeñen las funciones de un agente extranjero: “Medusa”; "Voz de America"; "Realidades"; "Tiempo presente"; "Radio Libertad"; Ponomarev; Savítskaya; Markélov; Kamalyagin; Apakhonchich; Makarevich; Falso; Gordon; Zhdanov; Medvédev; Fiódorov; "Búho"; "Alianza de Médicos"; "RKK" "Centro Levada"; "Monumento"; "Voz"; "Persona y derecho"; "Lluvia"; "Zona de medios"; "Deutsche Welle"; SGC "Nudo Caucásico"; "Persona enterada"; "Nuevo Periódico"