?

Log in

No account? Create an account

Как так случилось, что атеизм оказался кровавее инквизиции - За хлеб и вольность!

Nov. 30th, 2016

09:41 am - Как так случилось, что атеизм оказался кровавее инквизиции

Previous Entry Share Next Entry

Как, как. Ну вот почитайте звезду русского сциентизма и атеизма:
http://scinquisitor.livejournal.com/100512.html

Коротко пересказываю: ура, ура, появление роботизированных бесшоферных авто на дорогах позволяет наконец-то исследовать и практически применить аксиомы настоящей, научной морали, без поповщины и розовых слюней сентиментальности ("Три закона Робототехники" - нет, не слышали).

1. Внезапно, дилемма вагонетки: оказывается, роботизированной машине так и так придется решать вопрос: задавить ребенка в коляске, выкатившейся на проезжую, или принять правее и сбить дядьку с пивным пузом, или левее и сбить бабульку с собачкой на поводке. Шах и мат, сентиментальные моралисты! Математика рулит! Главное - это минимизировать количество убитых, согласно формул! Собака не считается!

Угу. Вам не приходит в голову, что с этой математикой проблемка: кто-то стер часть уравнения, даже с некоторыми переменными, и дядя у доски ИМИТИРУЕТ работу математика? Поясняю.

Дело в том, что при движении машины со скоростью, скажем, 5 км/час гарантированно останутся живы и ребенок, и старушка, и дядька с пузом. Даже собачка. Даже пиво у дядьки не разольется. То есть, у уравнения, включающего жизни этих людей - есть сверхоптимальное решение, и строго говоря, в постановке автора ("минимизация числа смертей") - вопрос закрыт. Но он явно имел в виду другое, он стер вот какую часть уравнения: "как минимизировать число смертей ПРИ КАТЕГОРИЧЕСКОМ УСЛОВИИ моего прибытия в пункт назначения в строго указанное время, то есть движения со скоростью НЕ МЕНЬШЕ указанной".

То есть, предлагается решать дилемму вагонетки, ИГНОРИРУЯ то, что само возникновение угрозы жизни тем или иным ее участникам вызвано (1) самым фактом выезда Сцинквизитора на дорогу; (2) присвоением его удобству (продолжительности поездки) высшего приоритета перед жизнью любого участника ситуации и любого числа жизней участников.

1а. В реальности, Роботу не придется решать уравнения Сцинквизитора, потому что их решение содержится в ПДД, в статьях, которые предписывают безальтернативно выбирать скорость движения не выше, чем обеспечивающую гарантированную остановку при появлении неожиданного препятствия, и интервал между машинами, обеспечивающий остановку без столкновения при внезапном торможении впереди идущей машины. Иными словами, закон уже постановил, что это уравнение следует решать за счет интересов сидящего в машине Сцинквизитора. А Робот, он не такой, он не будет уговаривать, что "мало ли что 40 на знаке, тут все всегда едут 70", или "мы в 3-м ряду тормозим, только если 2 ряд стоит, а так нам пешеходя не видно".

2. "ГУЛАГ не средство наказания, а средство воспитания". Особенно доставляет идея, что в "уравнении" было бы полезно учесть, кто из участников "вагонетки" действовал правомерно, а кто нарушил ПДД, и его и давить.

Вот и ответ. Вот так это и работает. Вместо очевидного ответа - что Робот должен ездить небыстро (с умеренной скоростью), сбавлять ее в сложных ситуациях, тормозить при помехе - русский интеллектуал мечтает воспользоваться изобретением (инженерным или социальным) для ВОСПИТАНИЯ ЛУЧШЕГО ЧЕЛОВЕКА. Точно так же в начале 20 века интеллектуалы вместо двух сложившихся реакций на девиантное поведение (игнорировать или изолировать) решили людей ПЕРЕДЕЛЫВАТЬ, перевоспитывать. И устлали тундру человеческими костями.

ЗЫ. Особенно доставляет, что Сцинквизитор, суда по комментам, машину не водит. То есть да, это он из "чисто научных соображений". Ну что, ответ на заглавный вопрос получен?

Comments:

From:dodoche
Date:November 30th, 2016 06:59 am (UTC)
(Link)
Знакомый типаж - на реддите такие называются STEM lords

(в сторону: и мы еще удивляемся, почему они выбрали Трампа).
(Reply) (Thread)
[User Picture]
From:xgrbml
Date:November 30th, 2016 07:07 am (UTC)
(Link)
У меня только один вопрос: а наукой-то товарищ занимается или только такой вот популяризацией очень умных мыслей? Первая из альтернатив всяко лучше второй.
(Reply) (Thread)
[User Picture]
From:taki_net
Date:November 30th, 2016 07:15 am (UTC)
(Link)
кбн, снс ИПИ РАН.

С другой стороны, про науку в биографии кратко и скороговоркой, очень много про "просветительство" и популяризацию:

Член экспертного совета Премии имени Гарри Гудини[13].

С 2016 года является членом Комиссии РАН по борьбе с лженаукой и фальсификацией научных исследований[14].
(Reply) (Parent) (Thread) (Expand)
From:tmu_1971
Date:November 30th, 2016 07:14 am (UTC)
(Link)
В реальности, Роботу не придется решать уравнения Сцинквизитора, потому что их решение содержится в ПДД, в статьях, которые предписывают безальтернативно выбирать скорость движения не выше, чем обеспечивающую гарантированную остановку при появлении неожиданного препятствия, и интервал между машинами, обеспечивающий остановку без столкновения при внезапном торможении впереди идущей машины.



Буквальное соблюдение этих правил приведет к параличу движения. Никакой робот не будет двигаться по автостраде со скоростью 40-50 км/ч (скорость, обеспечивающая гарантированную остановку) на случай появления альтернативно одаренного пешехода. Так что частота ситуаций "выбираем, куда/в кого врезаться" несомненно уменьшится по сравнению с водителем-человеком, но не в ноль.
(Reply) (Thread)
[User Picture]
From:taki_net
Date:November 30th, 2016 07:17 am (UTC)
(Link)
Подумайте еще. Вы совершаете ту же ошибку (точнее, те же две ошибки), что Сцинквизитор.
(Reply) (Parent) (Thread)
[User Picture]
From:idelsong
Date:November 30th, 2016 07:23 am (UTC)
(Link)
ЧП бывают все равно. Все равно может найтись пешеход, который выскочит на автостраду, хотя она огорожена и выход на нее запрещен. Другое дело, что не только робот, но и мы решаем в таких ситуациях на основании инстинкта, а не моральных принципов.
(Reply) (Thread)
From:tmu_1971
Date:November 30th, 2016 07:28 am (UTC)
(Link)
Ну так у робота нет ни инстинкта, ни моральных принципов. Речь и идет о том, какие принципы, точнее, правила принятия решений, следует в него вложить.
(Reply) (Parent) (Thread) (Expand)
[User Picture]
From:lord_matthews
Date:November 30th, 2016 07:32 am (UTC)
(Link)
Сегодняшний smbc в тему
(Reply) (Thread)
From:vsvor
Date:November 30th, 2016 07:58 am (UTC)
(Link)
Не вполне понятно, при чем здесь именно _русский_ интеллектуал, если тест, в котором машина с отказавшими тормозами пересекает пешеходный переход, предложили интеллектуалы из MIT. Вашего решения (если его можно назвать решением) в этой постановке вообще нет.

(Reply) (Thread)
[User Picture]
From:taki_net
Date:November 30th, 2016 08:10 am (UTC)
(Link)
Обсуждаются рассуждения вполне конкретного человека по этому поводу.
(Reply) (Parent) (Thread) (Expand)
[User Picture]
From:oude_rus
Date:November 30th, 2016 08:43 am (UTC)
(Link)
Вам непременно надо сходить на ru_chp и почитать мегасрачи "коробочник против кегли".
У вас коробочник уже наверху нарисовался.

Edited at 2016-11-30 08:48 am (UTC)
(Reply) (Thread)
[User Picture]
From:taki_net
Date:November 30th, 2016 08:52 am (UTC)
(Link)
Угу. Я эту тему имел в виду, но решил не усложнять изложение.
(Reply) (Parent) (Thread) (Expand)
[User Picture]
From:warlen
Date:November 30th, 2016 09:27 am (UTC)
(Link)
Я не водитель, а пешеход, и не знаю что там в правилах. Но если рядом с дорогой тротуар, по которому ходят люди, среди них может найтись такой, который выскочит на дорогу прямо перед машиной, и машина не успеет затормозить даже при 40 км/ч. Поэтому мне непонятно, какая тут может быть "гарантированная остановка при появлении неожиданного препятствия". Разве что всегда ездить со скоростью 5 км/ч. Но это почти равносильно тому, чтобы вообще запретить личные автомобили. Тоже вариант, конечно, но до сих пор почему-то так не сделали, хотя опасность не вчера появилась.
(Reply) (Thread)
[User Picture]
From:taki_net
Date:November 30th, 2016 09:40 am (UTC)
(Link)
Но в правилах написано так, а значит, робот будет ездить именно так.

И да, дорога, на которую "выскакивают" люди, должна иметь ограничение 10.
(Reply) (Parent) (Thread) (Expand)
[User Picture]
From:aka_author
Date:November 30th, 2016 09:37 am (UTC)
(Link)
*** решили людей ПЕРЕДЕЛЫВАТЬ, перевоспитывать ***

Они действительно решили из перевоспитывать? По-моему, им просто нравилось их убивать.
(Reply) (Thread)
[User Picture]
From:geralt
Date:November 30th, 2016 03:53 pm (UTC)
(Link)
Да нет, именно любит убивать людей ничтожное число. Обычно массовые убийство начинаются как раз с попыток людей исправить. Собственно та же инквизиция тоже с этого начиналась. Меняется только идеал, а инструменты всё одни и те же...
(Reply) (Parent) (Thread)
[User Picture]
From:i_ddragon
Date:November 30th, 2016 11:46 am (UTC)
(Link)
> Ученые из MIT придумали тест под названием «Моральная машина». В ходе тестирования вы должны решить за беспилотную машину ряд этических дилемм. Как ей вести себя на дороге, если катастрофа неизбежна и кто-нибудь должен погибнуть?

Судя по цитате, вариант "притормозить, никого не задавить" исключён условием задачи. Насколько задача приложима к практике - другой вопрос, и начнёт ли кто-то злоупотреблять результатами - ещё один вопрос, но внутри самой задачи опции "затормозить" просто нет.
(Reply) (Thread)
[User Picture]
From:taki_net
Date:November 30th, 2016 11:48 am (UTC)
(Link)
Я не понял, что Вы хотите сказать.
(Reply) (Parent) (Thread) (Expand)
[User Picture]
From:lepestriny
Date:November 30th, 2016 02:26 pm (UTC)
(Link)
Толково подмечено.
(Reply) (Thread)
[User Picture]
From:roman_kr
Date:November 30th, 2016 06:31 pm (UTC)
(Link)
двух сложившихся реакций на девиантное поведение (игнорировать или изолировать)

Все таки реакций 3 ( 3F - Freeze, Fight, Flight) :)
(Reply) (Thread)
[User Picture]
From:beaver_cherokee
Date:December 3rd, 2016 08:51 am (UTC)
(Link)
ППКС и двачую.
(Reply) (Thread)