Не понимает? Давайте я может попробую? 1. Никакие ИИ не должны контролировать вооружение. Никогда. 2. Никакой ИИ не должен принимать решения о "социальной благонадёжности" человека. Никогда. 3. Желательно, чтобы никакой ИИ не собирал и не обрабатывал бесконтрольно персональные данные. Пусть совет начнёт с этого, а там дальше видно будет.
1. Похоже на правду 2. Похоже на правду, хотя, безличный "скоринг" всяко лучше пристрастной оценки 3. Наоборот! Надо запретить живым должностным лицам доступ к чужим персональным данным, с исключением для судов и т.п. А принятие решений проводить по итогам обработки, проведённой ИИ.
1. Но ведь ИИ, контролирующий вооружение, более этичен, чем посадка за вооружение человека, даже контрактника (а не призывника). Особенно если с другой стороны также встанут ИИ
2. Как быть с уже существующими системами распознавания лиц, помогающими в розыске правонарушителей?
3. Чем ИИ, бесконтрольно собирающий данные, менее этичен чем АНБ/ЦРУ, ФСБ или любая другая служба, представленная людьми
Что у нас - система Периметр, что у США - мертвая рука, управляют запуском всего ядерного оружия. Если при усложнении данных систем - самопроизвольно разовьется интеллект - будет весело. С другой стороны, как в терминаторе не будет - ии очень уязвим к эми от ядерных бомб. Куда страшнее тот ИИ который, тихо и незаметно возьмет под контроль всю экономику, став в начале миллиардером, а потом и триллионером играя на акциях...и жадности людей.
Не понимает? Давайте я может попробую?
1. Никакие ИИ не должны контролировать вооружение. Никогда.
2. Никакой ИИ не должен принимать решения о "социальной благонадёжности" человека. Никогда.
3. Желательно, чтобы никакой ИИ не собирал и не обрабатывал бесконтрольно персональные данные.
Пусть совет начнёт с этого, а там дальше видно будет.
1. Провалено. Алгоритмы решают вопросы управления и наведения оружием .
2. Провалено. Алгоритмы решают вопросы платежеспособности граждан для банков.
3.Алгоритмы программ уже собрали все ваши данные ....
1. Похоже на правду
2. Похоже на правду, хотя, безличный "скоринг" всяко лучше пристрастной оценки
3. Наоборот! Надо запретить живым должностным лицам доступ к чужим персональным данным, с исключением для судов и т.п. А принятие решений проводить по итогам обработки, проведённой ИИ.
1. Но ведь ИИ, контролирующий вооружение, более этичен, чем посадка за вооружение человека, даже контрактника (а не призывника). Особенно если с другой стороны также встанут ИИ
2. Как быть с уже существующими системами распознавания лиц, помогающими в розыске правонарушителей?
3. Чем ИИ, бесконтрольно собирающий данные, менее этичен чем АНБ/ЦРУ, ФСБ или любая другая служба, представленная людьми
Что у нас - система Периметр, что у США - мертвая рука, управляют запуском всего ядерного оружия. Если при усложнении данных систем - самопроизвольно разовьется интеллект - будет весело. С другой стороны, как в терминаторе не будет - ии очень уязвим к эми от ядерных бомб. Куда страшнее тот ИИ который, тихо и незаметно возьмет под контроль всю экономику, став в начале миллиардером, а потом и триллионером играя на акциях...и жадности людей.