header

» » » » Опасность ИИ

Опасность ИИ

Опасность ИИ

Один из самых известных ученых современности Стивен Хокинг, совместно с профессором компьютерных наук Стюартом Расселлом из Калифорнийского университета и профессорами физики из Массачусетского технологического института Максом Тегмарком и Френком Вильчеком опубликовал статью, где рассматривалась опасность ИИ и компьютерные угрозы, которые могут возникнуть вследствие его появления. 

В статье он упомянул уже существующие инновации, такие как голосовой помощник Siri, самоуправляемые автомобили и суперкомпьютер, выигравший у человека в телевикторине Jeopardy. По мнению Хокинга создание искусственного интеллекта может стать одним из самых больших прорывов в истории человечества, но существует риск, что оно будет последним.  

Так как машины, обладающие интеллектуальными способностями, превышающими человеческие, смогут совершенствоваться, люди не смогут остановить или даже повлиять на их развитие. Это приведет к появлению технологической сингулярности, что подразумевает слишком быстрое развитие технологий. В этом случае компьютерная угроза будет исходить от технологий, так как ИИ начнет управлять научными разработками, финансовыми рынками и даже людьми. К тому же он сможет разрабатывать вооружение, недоступное людскому пониманию. 

После всего авторы статьи упоминали, что если в краткосрочное перспективе компьютерная угроза зависит от людей управляющих ИИ, то в долгосрочных проектах неизвестно будет ли возможно управлять ими вообще. Поэтому сложно сказать какую опасность ИИ будет представлять после его создания. По мнению, Хокинга этим вопросом должны заняться серьезные научные организации и провести как можно больше научных исследований, чтобы предотвратить развитие неблагоприятного для человечества будущего. 

Автор: Katerina3007   11-10-2014

Рубрика: Новости » Наука

Рейтинг:

Просмотров: 995

Комментариев: 0

Статьи по теме

Комментарии

Зарегистрируйтесь, чтобы оставлять комментарии