Злоупотребление искусственным интеллектом со стороны ИТ-гигантов может навредить развивающимся странам

0
14

Злоупотребление искусственным интеллектом со стороны ИТ-гигантов может навредить развивающимся странам


Отсутствие необходимого регулирования несет в себе угрозу целям устойчивого развития – набору руководящих принципов, определенному ООН для обеспечения поступательного развития всех стран.

За последние годы интерес к искусственному интеллекту, обещающему революционные изменения в самых разных областях, где его пытаются применить, значительно вырос. Но вместе с тем усиливаются споры о том, не перевешивают ли риски его использования получаемые преимущества. Очень многих пугает то обстоятельство, что у крупных технологических компаний появляется неограниченный доступ к частным данным. Достаточно вспомнить скандал с Cambridge Analytica в 2018 году, когда компания, занимающаяся анализом данных, получила в свое распоряжение конфиденциальную информацию множества пользователей Facebook. Строгих законодательных ограничений в отношении технологий искусственного интеллекта до сих пор не существует, и это может оказаться губительным для общества.

В свежем исследовании, отчет о котором опубликовал журнал Sustainable Development, доктор Джон Труби из Катарского университета утверждает, что нерегулируемый искусственный интеллект несет в себе угрозу целям устойчивого развития – набору руководящих принципов, определенному ООН для обеспечения поступательного развития всех стран. Особенно опасна эта угроза для развивающихся стран, которые часто сознательно ослабляют регулирование искусственного интеллекта, стремясь таким образом привлечь инвестиции крупных технологических компаний.

В первую очередь речь идет о борьбе с коррупцией, организованной преступностью и терроризмом. Поскольку искусственный интеллект широко применяется в базах данных органов национальной безопасности, злоумышленники могут использовать его для отмывания денег и организации преступной деятельности. Чтобы предотвратить это, необходимо проводить оценку риска на каждом этапе разработки систем искусственного интеллекта. Программное обеспечение должно быть недоступно, если существует угроза его взлома хакерами.

Еще одна вероятная цель злоумышленников, вооруженных «умными» инструментами, – расширение доступа к финансовым услугам. Искусственный интеллект активно применяется финансовыми учреждениями для упрощения банковских сервисов и повышения их эффективности. Но в процессе обучения искусственный интеллект может сужать финансовые возможности определенных групп населения. Чтобы избежать этого, исключительно важна прозрачность процессов, управляемых искусственным интеллектом. Вмешательство человека в случае необходимости поможет избежать дискриминации. А разработчики со своей стороны должны обучать свое программное обеспечение таким образом, чтобы исключить возможность неправомерных ограничений.

И наконец, искусственный интеллект представляет угрозу для обеспечения равных возможностей всем членам общества. Он может использоваться трансконтинентальными корпорациями для создания рабочих мест в развивающихся странах, что порождает угрозу для местного малого бизнеса. Если же искусственный интеллект будет ориентирован на устойчивое развитие, он, напротив, начнет улучшать ситуацию на рынке труда и способствовать росту производительности за счет автоматизации рутинных операций.

Таким образом, при отсутствии правильного управления искусственный интеллект порождает весьма серьезные риски. При должном же регулировании он становится чрезвычайно полезен, помогая повышать производительность труда и расширять существующие возможности.

Источник