Краіны на саміце ў Вялікабрытаніі абяцаюць змагацца з патэнцыяльна «катастрафічнымі» рызыкамі ІІ

У сваёй прамове ў амбасадзе ЗША Харыс сказаў, што свет павінен пачаць дзейнічаць зараз, каб супрацьстаяць «поўнаму спектру» рызык ІІ, а не толькі экзістэнцыяльным пагрозам, такім як масавыя кібератакі або біялагічная зброя, створаная ІІ.

«Ёсць дадатковыя пагрозы, якія таксама патрабуюць ад нас дзеянняў, пагрозы, якія ў цяперашні час прычыняюць шкоду і для многіх людзей таксама адчуваюць сябе экзістэнцыяльнымі», - сказала яна, спасылаючыся на пажылога грамадзяніна, які адмовіўся ад плана аховы здароўя з-за няспраўнага алгарытму штучнага інтэлекту, або на жанчыну, якой пагражаў абразлівы партнёр з глыбокімі падробленымі фотаздымкамі.

Саміт па бяспецы штучнага інтэлекту - гэта праца любові Сунака, былога банкіра, які любіць тэхналогію, які хоча, каб Вялікабрытанія стала цэнтрам вылічальных інавацый, і назваў саміт пачаткам глабальнай размовы аб бяспечным развіцці штучнага інтэлекту.

Харыс павінен прыняць удзел у саміце ў чацвер, далучыўшыся да ўрадавых чыноўнікаў з больш чым двух дзясяткаў краін, уключаючы Канаду, Францыю, Германію, Індыю, Японію, Саудаўскую Аравію - і Кітай, запрошаных у сувязі з пратэстамі некаторых членаў кіруючай Кансерватыўнай партыі Сунака.

Падпісанне краінамі пагаднення, якое атрымала назву Дэкларацыя Блетчлі, было дасягненнем, нават калі яно нязначнае ў дэталях і не прапаноўвае спосаб рэгулявання развіцця штучнага інтэлекту. Краіны паабяцалі працаваць над «сумесным пагадненнем і адказнасцю» адносна рызык штучнага інтэлекту і правесці шэраг дадатковых сустрэч. Паўднёвая Карэя правядзе міні-віртуальны саміт па штучным інтэлекту праз шэсць месяцаў, а праз год адбудзецца асабісты саміт у Францыі.

Намеснік міністра навукі і тэхналогій Кітая У Чжаохуэй сказаў, што тэхналогія штучнага інтэлекту «нявызначаная, невытлумачальная і не мае празрыстасці».

«Гэта нясе рызыкі і праблемы ў галіне этыкі, бяспекі, канфідэнцыяльнасці і справядлівасці. Яго складанасць узнікае», — сказаў ён, адзначыўшы, што прэзідэнт Кітая Сі Цзіньпін у мінулым месяцы запусціў у краіне Глабальную ініцыятыву па кіраванні ІІ.

«Мы заклікаем да глабальнага супрацоўніцтва, каб абменьвацца ведамі і рабіць тэхналогіі штучнага інтэлекту даступнымі для грамадскасці на ўмовах адкрытага зыходнага кода», — сказаў ён.

Генеральны дырэктар Tesla Ілон Маск таксама плануе абмеркаваць AI з Сунакам у размове, якая будзе транслявацца ў чацвер вечарам. Тэхналагічны мільярдэр быў адным з тых, хто ў пачатку гэтага года падпісаў заяву, у якой падняў трывогу аб небяспецы, якую ўяўляе ІІ для чалавецтва.

Прэзідэнт Еўрапейскай камісіі Урсула фон дэр Ляен, генеральны сакратар Арганізацыі Аб'яднаных Нацый Антоніу Гутэрыш і кіраўнікі амерыканскіх кампаній штучнага інтэлекту, такіх як Anthropic, Google DeepMind і OpenAI, а таксама ўплывовыя інфарматыкі, такія як Ёшуа Бенгіа, адзін з «хросных бацькоў» ІІ, таксама прысутнічаюць. сустрэча ў Блетчлі-парку, былой звышсакрэтнай базе ўзломшчыкаў кодаў часоў Другой сусветнай вайны, якая лічыцца радзімай сучасных вылічэнняў.

Удзельнікі заявілі, што фармат закрытай сустрэчы спрыяў здаровай дыскусіі. Нефармальныя сеткавыя сеансы дапамагаюць умацаваць давер, сказаў Мустафа Сулейман, генеральны дырэктар Inflection AI.

Між тым, на афіцыйных дыскусіях “людзі змаглі зрабіць вельмі ясныя заявы, і тут вы бачыце значныя рознагалоссі, як паміж краінамі поўначы, так і паміж краінамі поўдня (і), якія больш выступаюць за адкрыты зыходны код і менш за адкрыты крыніца», — сказаў Сулейман журналістам.

Сістэмы штучнага інтэлекту з адкрытым зыходным кодам дазваляюць даследчыкам і экспертам хутка выяўляць праблемы і вырашаць іх. Але недахопам з'яўляецца тое, што калі сістэма з адкрытым зыходным кодам была выпушчана, «любы можа выкарыстоўваць яе і наладжваць у зламысных мэтах», - сказаў Бенджыа ў кулуарах сустрэчы.

«Існуе такая несумяшчальнасць паміж адкрытым зыходным кодам і бяспекай. Дык як нам з гэтым змагацца?»

Толькі ўрады, а не кампаніі, могуць абараніць людзей ад небяспекі ІІ, сказаў Сунак на мінулым тыдні. Аднак ён таксама заклікаў не спяшацца рэгуляваць тэхналогію штучнага інтэлекту, заявіўшы, што спачатку яе трэба цалкам зразумець.

Наадварот, Харыс падкрэсліў неабходнасць разгляду тут і цяпер, у тым ліку «грамадскай шкоды, якая ўжо адбываецца, напрыклад, прадузятасці, дыскрымінацыі і распаўсюджвання дэзінфармацыі».

Яна звярнула ўвагу на распараджэнне прэзідэнта Джо Байдэна на гэтым тыдні, у якім устаноўлены гарантыі штучнага інтэлекту, як доказ таго, што ЗША паказваюць прыклад у распрацоўцы правілаў для штучнага інтэлекту, якія працуюць у інтарэсах грамадства.

Харыс таксама заклікаў іншыя краіны падпісацца на абяцанне пры падтрымцы ЗША прытрымлівацца «адказнага і этычнага» выкарыстання штучнага інтэлекту ў ваенных мэтах.

«Прэзідэнт Байдэн і я лічым, што ўсе кіраўнікі ... маюць маральны, этычны і сацыяльны абавязак пераканацца, што штучны інтэлект прыняты і пашыраны такім чынам, каб абараніць грамадства ад патэнцыйнай шкоды і гарантаваць, што кожны зможа карыстацца яго перавагамі», — сказала яна. сказаў.


Час публікацыі: 21 лістапада 2023 г