Los científicos están asustados por la amenaza de la inteligencia artificial.
Vale la pena señalar que el Dr. Amnon Eden es el director del proyecto cuyo objetivo principal es analizar el posible efecto destructivo de la IA. Sin una comprensión adecuada de las consecuencias de crear inteligencia artificial, su desarrollo puede estar en peligro de catástrofe, cree el científico. En la actualidad, nuestra sociedad está mal informada sobre las disputas que se están llevando a cabo en los círculos científicos sobre el análisis del impacto potencial de la IA. "En el futuro, 2016, el análisis de los posibles riesgos tendrá que extenderse mucho más en el pensamiento de las corporaciones y los gobiernos, los políticos y aquellos que son responsables de tomar decisiones", dice Eden.
El científico está seguro de que la ciencia ficción, que describe la destrucción de la humanidad robots, pronto puede convertirse en nuestro problema común, ya que el proceso de creación de IA se ha descontrolado. Por ejemplo, Elon Musk, con el apoyo del empresario Sam Altman, decidió crear una nueva organización sin fines de lucro de mil millones de dólares dedicada al desarrollo de IA de código abierto que se supone trasciende la mente humana. Al mismo tiempo, el propio multimillonario estadounidense Elon Musk clasifica a la inteligencia artificial entre las "mayores amenazas para nuestra existencia". Steve Wozniak, cofundador de Apple, dijo en marzo del año pasado que "el futuro parece desalentador y muy peligroso para las personas... finalmente llegará el día en que las computadoras pensarán más rápido que nosotros y se desharán de las personas lentas para poder que las empresas puedan operar de manera más eficiente”.
Cabe señalar que muchos científicos ven una amenaza de la IA. Docenas de científicos, inversionistas y empresarios reconocidos cuyas actividades, de una forma u otra, están relacionadas con el desarrollo de la inteligencia artificial, firmaron una carta abierta con el fin de prestar más atención al tema de la seguridad y la utilidad pública de las obras en el campo de la IA. Entre los que firmaron este documento se encuentran el astrofísico Stephen Hawking y el fundador de Tesla y SpaceX Ilon Musk. La carta, junto con el documento adjunto, que fue compilado por la organización pública Future of Life Institute (FLI), se escribió en un entorno de creciente preocupación por el impacto de la inteligencia artificial en el mercado laboral e incluso sobre la perspectiva a largo plazo de la supervivencia de toda la humanidad en condiciones en las que las capacidades de robots y máquinas serán Crecen casi sin restricciones.
Los científicos entienden el hecho de que el potencial de la IA hoy en día es muy alto, por lo que es necesario explorar completamente las posibilidades de su uso óptimo para evitar las trampas que lo acompañan, señala la carta FLI. Es necesario que los sistemas de inteligencia artificial hechos por el hombre hagan exactamente lo que queremos de ellos. Cabe destacar que el Instituto Future of Life fue fundado el año pasado por varios entusiastas en su campo, entre los cuales se encontraba Jaan Tallinn, el creador de Skype, para "minimizar los riesgos que enfrenta la humanidad" y estimular la investigación con una "visión optimista del futuro". En primer lugar, estamos hablando de los riesgos causados por el desarrollo de la inteligencia artificial y la robótica. El consejo asesor de FLI incluye Musk y Hawking junto con el famoso actor Morgan Freeman y otras personas famosas. Según Ilona Mask, el desarrollo descontrolado de la inteligencia artificial es un peligro potencialmente mayor que el de la energía nuclear. оружие.
Al final de 2015, el famoso astrofísico británico Stephen Hawking intentó explicar su oposición a las tecnologías de inteligencia artificial. En su opinión, las máquinas supramentales eventualmente verán a las personas como consumibles o hormigas que simplemente interfieren con las tareas que enfrentan. Al comunicarse con los usuarios del portal Reddit, Stephen Hawking notó que no cree que esas máquinas súper inteligentes sean "criaturas malvadas" que quieren destruir a toda la humanidad debido a su superioridad intelectual. Lo más probable es que sea posible hablar sobre el hecho de que simplemente no notarán a la humanidad.
“Recientemente, los medios de comunicación han distorsionado constantemente mis palabras. El principal riesgo, que se encuentra en el desarrollo de la IA, no es la malicia de las máquinas, sino su competencia. "La inteligencia artificial superinteligente hará un excelente trabajo con las tareas, pero si ésta y nuestras metas no coinciden, la humanidad tendrá problemas muy serios", explica el famoso científico. Como ejemplo, Hawking citó una situación hipotética en la que una IA superpotente es responsable de la operación o construcción de una nueva represa hidroeléctrica. Para tal máquina, será de suma importancia cuánta energía generará el sistema confiado, y el destino de las personas no importará. “Hay pocos entre nosotros que pisoteamos los hormigueros y pisamos a las hormigas con ira, pero imaginemos una situación: controlas una poderosa estación hidroeléctrica que genera electricidad. Si necesita elevar el nivel del agua y como resultado de sus acciones, un hormiguero se inundará, entonces es poco probable que los problemas de ahogamiento de insectos lo molesten. "No pongamos a las personas en lugar de las hormigas", dijo el científico.
El segundo problema potencial del mayor desarrollo de la inteligencia artificial, según Hawking, puede ser la "tiranía de los propietarios de las máquinas": el rápido crecimiento de la brecha de ingresos entre los ricos que logran monopolizar la producción de máquinas inteligentes y el resto de la población mundial. Stephen Hawking propone resolver estos posibles problemas de la siguiente manera: ralentizar el proceso de desarrollo de la IA y cambiar al desarrollo no de un "universal", sino de una inteligencia artificial altamente especializada que puede resolver solo un número muy limitado de tareas.
Además de Hawking and Mask, Frank Wilczek, ganador del Premio Nobel y profesor de física del MIT, Luke Mulhauser, director ejecutivo del Instituto de Inteligencia Artificial (MIRI), así como muchos expertos de las principales empresas de TI: Google, Microsoft e IBM, así como empresarios. , fundada por la empresa Vicarious m DeepMind, especializada en el desarrollo de sistemas de inteligencia artificial. Los compiladores de la carta señalan que no pretenden asustar al público, sino que planean enfatizar los aspectos positivos y negativos asociados con la creación de inteligencia artificial. "Actualmente, todos están de acuerdo en que la investigación en el campo de la IA avanza con confianza, y el impacto de la IA en la sociedad humana moderna solo aumentará", dice la carta: las posibilidades de apertura al hombre son enormes, todo lo que la civilización moderna tiene para ofrecer ha sido creado por el intelecto persona "No podemos predecir lo que podemos lograr si la inteligencia humana se puede multiplicar con la IA, pero el problema de deshacerse de la pobreza y la enfermedad ya no es infinitamente difícil".
Numerosos desarrollos en el campo de la inteligencia artificial, incluidos los sistemas de reconocimiento de imagen y reconocimiento de voz, vehículos no tripulados y mucho más, ya están incluidos en la vida moderna. Según los observadores de Silicon Valley, hoy en día se están implementando más de 150 en esta área. Al mismo tiempo, los desarrollos en esta área están atrayendo cada vez más inversiones de inversión y más y más compañías como Google están desarrollando sus proyectos basados en AI. Por lo tanto, los autores de la carta creen que ha llegado el momento de prestar mayor atención a todas las posibles consecuencias del auge observado para los aspectos económicos, sociales y legales de la vida humana.
Nick Bostrom es profesor en la Universidad de Oxford, conocido por su trabajo sobre el principio antrópico. El especialista cree que la IA fue al grano, seguido por su incompatibilidad con el hombre. Nick Bostrom enfatiza que, en contraste con la ingeniería genética y el cambio climático, para el control de qué gobiernos asignan cantidades suficientes, "no se hace nada para controlar la evolución de la IA". Según el profesor, en relación con la inteligencia artificial, actualmente existe una "política de vacío legal que se debe llenar". Incluso tecnologías, como los vehículos no tripulados, que parecen inofensivos y útiles, plantean una serie de preguntas. Por ejemplo, ¿debería un automóvil similar frenar de emergencia para salvar a sus pasajeros y quién será el responsable en caso de un accidente causado por un vehículo no tripulado?
Argumentando sobre los riesgos potenciales, Nick Bostrom señaló que "la computadora no puede determinar los beneficios y los daños para los humanos" y "no tiene ni la más mínima idea de la moralidad humana". Además, los ciclos de superación personal en las computadoras pueden ocurrir a una velocidad tal que una persona simplemente no puede seguir, y casi nada se puede hacer con esto tampoco, dice el científico. "En esa etapa de desarrollo, cuando las computadoras pueden pensar por sí mismas, nadie puede predecir con precisión si esto llevará al caos o mejorará significativamente nuestro mundo", dijo Nick Bostrom, citando como ejemplo la solución de computadora más simple posible: apagar en países con frío. Calentamiento climático para la recuperación de las personas y aumentar su resistencia, lo que "puede venir a la mente inteligencia artificial".
Además, Bostrom también plantea el problema de astillar el cerebro humano para aumentar nuestra biointeligencia. “En muchos sentidos, tal procedimiento puede ser útil si todos los procesos están controlados, pero ¿qué sucede si el chip implantado puede reprogramarse? "¿A qué consecuencias puede llevar esto? ¿La aparición de un superhombre o la aparición de una computadora que solo se verá como un hombre?", Pregunta el profesor. Las formas en que las computadoras resuelven los problemas humanos son muy diferentes a las nuestras. Por ejemplo, en el ajedrez, el cerebro humano considera solo un conjunto limitado de movimientos, eligiendo la mejor opción entre ellos. A su vez, la computadora considera todos los movimientos posibles, eligiendo el mejor de todos. En este caso, la computadora no espera molestar o sorprender a su oponente en el juego. A diferencia de una persona que juega al ajedrez, una computadora puede hacer un movimiento astuto y sutil solo por casualidad. La inteligencia artificial puede considerarse la mejor manera: eliminar el error de cualquier sistema debido a la eliminación del "factor humano", pero, a diferencia de un humano, el robot no está listo para realizar hazañas que salvarían la vida de las personas.
Además, el crecimiento en el número de máquinas inteligentes es una etapa en la nueva revolución industrial. A su vez, esto significa que en un futuro cercano, la humanidad enfrentará cambios sociales inevitables. El trabajo a lo largo del tiempo será una gran cantidad de especialistas altamente calificados, ya que casi todas las tareas sencillas podrán encargarse de los robots y otros mecanismos. Los científicos creen que la inteligencia artificial "necesita un ojo y un ojo", para que nuestro planeta no se convierta en un planeta de dibujos animados "Zhelezyaka", que estaba habitado por robots.
En términos de más y más automatización de los procesos de producción, el futuro ya ha llegado. El Foro Económico Mundial (WEF) presentó su informe, según el cual la automatización conducirá al hecho de que incluso antes de 2020, más que 5, millones de personas que trabajan en diversos campos, perderán su lugar de trabajo. Este es el impacto de los robots y los sistemas robóticos en nuestras vidas. Para compilar el informe, el personal de WEF utilizó datos sobre 13,5 millones de trabajadores de todo el mundo. De acuerdo con sus datos, para el año 2020 desaparecerá la necesidad total de más de 7 millones de empleos, mientras que el crecimiento de empleo esperado en otras industrias será solo un poco más que 2 millones de empleos.
Fuentes de información:
http://www.ridus.ru/news/209869
http://www.vedomosti.ru/technology/articles/2015/01/13/ugrozy-iskusstvennogo-razuma
https://nplus1.ru/news/2016/01/19/they-took-our-jobs
http://ru.sputnik.kg/world/20151013/1019227239.html
información