чають, що люди пережили й інші замаху на почуття їхньої унікальності: Коперник, автор книги De Revolutionibus Orbium Coelestium, прибрав Землю з центру сонячної системи, а Дарвін, автор книги Descent of Man, помістив вид Homo sapiens на той же рівень, де знаходяться всі інші види живих істот. Тому навіть у разі його широкого і успішного наступу штучний інтелект стане не більшою загрозою для моральних засад суспільства XXI століття, ніж була дарвінівська теорія еволюції для XIX століття.
) Люди можуть втратити деякі зі своїх прав на особисте життя.
Вейценбаум також вказав, що розвиток технології розпізнавання мови може привести до широкого поширення засобів прослуховування телефонних розмов і тому до втрати громадянських свобод. Він не передбачав, що колись в світі терористичні загрози стануть настільки реальними, що змінять ставлення людей до того, з яким рівнем нагляду вони будуть готові погодитися, однак правильно зрозумів, що штучний інтелект має потенціал до створення засобів нагляду масового застосування. Передбачення Вейценбаум незабаром може здійснитися: уряд США розглядає питання про впровадження системи Echelon, яка «складається з мережі пунктів прослуховування, антенних полів і радарних станцій; система спирається на підтримку комп'ютерів, в яких використовується мовної переклад, розпізнавання мови і пошук за ключовими словами для автоматичного просіювання трафіку, що йде по телефону, електронною поштою, факсом і телексом ». Багато згодні з тим, що комп'ютеризація призводить до ущемлення прав на особисте життя, - один із старших керівників компанії Sun Microsystems Скотт Макнілі навіть заявив: «У вас все одно немає ніякого особистого життя. Забудьте про неї ». Інші з цим не згодні; наприклад, суддя Луїс Брандейс писав ще в 1890 році: «Право готівкову життя є найбільш всеосяжною з усіх прав ... адже це - право залишатися самим собою».
) Використання систем штучного інтелекту може призвести до того, що люди стануть більш безвідповідальними.
У тій атмосфері постійної готовності до судових розглядів, яка домінує в Сполучених Штатах, велику важливість набувають питання правової відповідальності. Якщо терапевт прийняв на віру судження медичної експертної системи щодо діагнозу, то хто буде нести відповідальність, якщо діагноз виявиться неправильним? На щастя, тепер загальновизнано, що не можна розглядати як зневагу службовими обов'язками виконання терапевтом медичних процедур, які мають високу очікувану корисність, навіть якщо фактичні результати виявилися катастрофічними для пацієнта (почасти така зміна поглядів обумовлена ??зростанням впливу методів теорії рішень в медицині). Тому наведений вище питання має розглядатися в такому формулюванні: «Хто повинен нести відповідальність, якщо діагноз виявився невиправданим?» Досі суди виходили з того, що медичні експертні системи відіграють таку ж роль, як медичні підручники і довідники; терапевти зобов'язані зрозуміти хід міркувань, що лежить в основі будь-якого рішення системи, і використовувати своє власне судження для прийняття рішення про те, чи потрібно слідувати рекомендаціям системи. Тому при проектуванні медичних експертних систем у вигляді інтелектуальних агентів дії цих систем слід розглядати не як безпосередньо впливають на пацієнта, а як впливають на поведінку терапевта. А якщо експертні системи колись будуть надійно виробляти більш точні діагнози в порівнянні з...