МОЖЕМ ЛИ МЫ ДОВЕРЯТЬ ИСКУССТВЕННОМУ ИНТЕЛЛЕКТУ, ЕСЛИ МЫ НЕ ЗНАЕМ, КАК ОН РАБОТАЕТ?

Перевод статьи Марианны Ленис. Оригинальный материал по ссылке: https://www.bbc.co.uk/news/business-44466213

Мы находимся на беспрецедентном этапе в истории человечества, когда машины с искусственным интеллектом вскоре могут принимать решения, влияющие на многие аспекты нашей жизни. Имеет ли значение, что мы не знаем, как они достигли этих решений?

Представьте, что вам отказывают в медицинском страховании, но когда вы спрашиваете, почему, компания просто обвиняет свой алгоритм оценки риска. Или если вы подаете заявку на ипотеку, и вам отказывают, но банк не может сказать вам точно, почему. Или более серьезно, если полиция начнет арестовывать людей по подозрению в планировании преступления исключительно на основе прогностической модели суперкомпьютера.

Это некоторые из сценариев, о которых беспокоится технологическая индустрия.  Искусственный интеллект (ИИ) неумолимо продвигается вперед, внедряясь все больше и больше в нашу жизнь.

С ИИ экспериментируют в большинстве секторов, включая медицинские исследования и диагностику, беспилотные транспортные средства, национальные системы наблюдения, военный обстрел противников и уголовные приговоры. В недавнем докладе консалтинговой компании PwC прогнозируется, что ИИ может увеличить мировую экономику на $15,7 трлн. (£11,7 трлн.) к 2030 году.

Но какой ценой? Эти программные алгоритмы становятся настолько сложными, что даже их создатели не всегда понимают, каким образом они пришли к ответу.

Появление нейронных сетей, разработанных для имитации мышления человеческого мозга, включает в себя большое количество взаимосвязанных процессоров. Они могут обрабатывать огромные объемы данных, определять шаблоны среди миллионов переменных с помощью машинного обучения и, что важно, изменяться в ответ на то, что они узнали.

Это позволяет получить удивительные сведения от лучших прогнозов погоды до более точной идентификации рака. Дэвид Стерн, менеджер по количественным исследованиям в технологической компании G-Research, использующей машинное обучение для прогнозирования цен на финансовых рынках, предупреждает, что «самый быстрый прогресс в исследованиях ИИ в последние годы связан с «подходом черного ящика».

«В популярном, в настоящее время, нейросетевом подходе процедура обучения состоит из миллионов внутренних параметров. Их взаимодействие очень сложное и труднообъяснимо. Еще одна тенденция в робототехнике – «глубокое обучение c подкреплением», когда проектировщик просто определяет поведенческие цели системы, и она автоматически учится, взаимодействуя непосредственно с окружающей средой», – говорит Дэвид Стерн. – Это приводит к системе, которую еще труднее понять».

Таким образом, индустрия изучает способы сделать алгоритмы всегда понятными и под контролируемые человеком. Например, американское оборонное агентство Darpa запускает свой проект на основе Explainable AI и OpenAI, некоммерческая исследовательская компания работает над «открытием и введением в действие пути к безопасному искусственному общему интеллекту».

Это звучит разумно, но одно из преимуществ ИИ заключается в том, что он может делать то, что люди не могут. Что, если мы в конечном итоге сделаем его менее эффективным?

Адриан Веллер, директор программы ИИ в Институте Алана Тьюринга, предполагает, что необходимость понять, как машина достигает своих решений, будет зависеть от того, насколько важны эти решения. Когда речь идет о беспилотных автомобилях или медицинской диагностике, например, наличие машины, которая является более точной и спасет больше жизней, может быть более важным, чем понимание того, как она работает, говорит он. «Для медицинского диагноза, если система в среднем на 95% точна, это звучит хорошо, хотя я все равно хотел бы знать, является ли она точной для меня лично, и интерпретируемость может помочь понять это».

Если AI решит вопрос о судебном приговоре, должны ли мы иметь право знать, каким образом? «Если бы алгоритм рекомендовал посадить меня в тюрьму на шесть лет, я бы хотел получить объяснение, которое позволило бы мне узнать, следовал ли он соответствующему процессу, и позволить бросить вызов алгоритму, если я не согласен», – говорит доктор Веллер.

«Я согласен с рекомендациями, что мы должны требовать от компаний открытости алгоритма. Особенно если мы считаем, что алгоритм – это средство в руках определенного человека», – добавляет он.

Без этих гарантий существует риск того, что люди могут подвергнуться дискриминации, не зная, почему, и стать «крайне маргинализированными».


Последние новости


Комментарии: 0

Комментариев пока нет.

Оставьте комментарий