Краіны саміту ў Вялікабрытаніі абяцаюць змагацца з патэнцыйна «катастрафічнымі» рызыкамі штучнага інтэлекту

Выступаючы ў пасольстве ЗША, Харыс заявіў, што свет павінен пачаць дзейнічаць зараз, каб вырашыць «увесь спектр» рызык, звязаных са штучным інтэлектам, а не толькі экзістэнцыяльныя пагрозы, такія як масавыя кібератакі або біялагічная зброя, распрацаваная штучным інтэлектам.

«Ёсць і дадатковыя пагрозы, якія таксама патрабуюць нашых дзеянняў, пагрозы, якія ў цяперашні час прычыняюць шкоду і для многіх людзей таксама адчуваюцца экзістэнцыяльнымі», — сказала яна, спасылаючыся на тое, як пажылы чалавек адмовіўся ад сваёй страхоўкі з-за няспраўнага алгарытму штучнага інтэлекту або жанчыну, якой пагражаў жорсткі партнёр з дапамогай глыбокіх фальшывых фотаздымкаў.

Саміт па бяспецы штучнага інтэлекту — гэта справа любові Сунака, былога банкіра, аматара тэхналогій, які хоча, каб Вялікабрытанія стала цэнтрам камп'ютэрных інавацый, і акрэсліў саміт як пачатак глабальнай дыскусіі аб бяспечным развіцці штучнага інтэлекту.

Харыс павінен прысутнічаць на саміце ў чацвер, далучыўшыся да ўрадавых чыноўнікаў з больш чым двух дзясяткаў краін, у тым ліку Канады, Францыі, Германіі, Індыі, Японіі, Саудаўскай Аравіі і Кітая, запрошаных з-за пратэстаў некаторых членаў кіруючай Кансерватыўнай партыі Сунака.

Падпісанне краінамі пагаднення, якое атрымала назву Блетчлійская дэкларацыя, стала дасягненнем, нават калі яно не ўтрымлівае падрабязнасцей і не прапануе спосабу рэгулявання развіцця штучнага інтэлекту. Краіны абавязаліся працаваць над дасягненнем «сумеснай згоды і адказнасці» адносна рызык, звязаных са штучным інтэлектам, і правесці шэраг далейшых сустрэч. Паўднёвая Карэя правядзе міні-віртуальны саміт па штучным інтэлекце праз шэсць месяцаў, а праз год — асабісты ў Францыі.

Намеснік міністра навукі і тэхналогій Кітая У Чжаохуэй заявіў, што тэхналогія штучнага інтэлекту «нявызначаная, невытлумачальная і не мае празрыстасці».

«Гэта нясе рызыкі і выклікі ў галіне этыкі, бяспекі, прыватнасці і справядлівасці. Яе складанасць становіцца ўсё большай», — сказаў ён, адзначыўшы, што ў мінулым месяцы старшыня Кітая Сі Цзіньпін запусціў Глабальнаю ініцыятыву па кіраванні штучным інтэлектам.

«Мы заклікаем да глабальнага супрацоўніцтва для абмену ведамі і забеспячэння доступу грамадскасці да тэхналогій штучнага інтэлекту на ўмовах адкрытага зыходнага кода», — сказаў ён.

Генеральны дырэктар Tesla Ілон Маск таксама плануе абмеркаваць з Сунакам штучны інтэлект у размове, якая будзе транслявацца ў чацвер вечарам. Тэхналагічны мільярдэр быў сярод тых, хто падпісаў заяву раней у гэтым годзе, у якой б'е трывогу з нагоды небяспек, якія штучны інтэлект уяўляе для чалавецтва.

Старшыня Еўрапейскай камісіі Урсула фон дэр Ляен, Генеральны сакратар Арганізацыі Аб'яднаных Нацый Антоніу Гутэрыш і кіраўнікі амерыканскіх кампаній па штучным інтэлекце, такіх як Anthropic, DeepMind і OpenAI ад Google, а таксама ўплывовыя навукоўцы ў галіне камп'ютэрных тэхналогій, такія як Ёшуа Бенхіа, адзін з «хросных бацькоў» штучнага інтэлекту, таксама прысутнічаюць на сустрэчы ў Блетчлі-Парку, былой сакрэтнай базе для дэшыфраўшчыкоў часоў Другой сусветнай вайны, якая лічыцца месцам нараджэння сучасных вылічальных тэхналогій.

Удзельнікі адзначылі, што закрыты фармат сустрэчы спрыяў здаровай дыскусіі. Нефармальныя сустрэчы дапамагаюць умацаваць давер, — сказаў Мустафа Сулейман, генеральны дырэктар Inflection AI.

Тым часам падчас афіцыйных дыскусій «людзі змаглі зрабіць вельмі выразныя заявы, і менавіта тут вы бачыце значныя рознагалоссі як паміж краінамі поўначы і поўдня, так і паміж краінамі, якія больш і менш падтрымліваюць адкрытае праграмнае забеспячэнне», — сказаў Сулейман журналістам.

Сістэмы штучнага інтэлекту з адкрытым зыходным кодам дазваляюць даследчыкам і экспертам хутка выяўляць праблемы і вырашаць іх. Але недахопам з'яўляецца тое, што пасля таго, як сістэма з адкрытым зыходным кодам выпушчана, «кожны можа выкарыстоўваць яе і наладжваць у шкодных мэтах», — сказаў Бенджыа ў кулуарах сустрэчы.

«Існуе несумяшчальнасць паміж адкрытым зыходным кодам і бяспекай. Дык як жа нам з гэтым змагацца?»

Толькі ўрады, а не кампаніі, могуць абараніць людзей ад небяспек штучнага інтэлекту, заявіў Сунак на мінулым тыдні. Аднак ён таксама заклікаў не спяшацца з рэгуляваннем тэхналогій штучнага інтэлекту, заявіўшы, што спачатку іх трэба цалкам зразумець.

У адрозненне ад гэтага, Харыс падкрэсліў неабходнасць вырашэння праблем, якія ўзнікаюць тут і цяпер, у тым ліку «грамадскай шкоды, якая ўжо адбываецца, такой як прадузятасць, дыскрымінацыя і распаўсюджванне дэзынфармацыі».

Яна спасылалася на выканаўчы ўказ прэзідэнта Джо Байдэна, выдадзены на гэтым тыдні, які ўстанаўлівае меры бяспекі для штучнага інтэлекту, як на доказ таго, што ЗША з'яўляюцца прыкладам у распрацоўцы правілаў для штучнага інтэлекту, якія працуюць у грамадскіх інтарэсах.

Харыс таксама заклікаў іншыя краіны падпісаць падтрыманае ЗША абяцанне прытрымлівацца «адказнага і этычнага» выкарыстання штучнага інтэлекту ў ваенных мэтах.

«Прэзідэнт Байдэн і я лічым, што ўсе лідары… маюць маральны, этычны і сацыяльны абавязак забяспечыць укараненне і развіццё штучнага інтэлекту такім чынам, каб абараніць грамадскасць ад патэнцыйнай шкоды і гарантаваць, што кожны зможа карыстацца яго перавагамі», — сказала яна.


Час публікацыі: 21 лістапада 2023 г.