Ang isang neural network ng artipisyal na katalinuhan ay natututo kapag hindi ito mapagkakatiwalaan

Ang mga mananaliksik ng MIT ay bumuo ng isang paraan upang matindi ang pagsasanay ng mga neural network upang mabilis na masuri ang antas ng kumpiyansa sa kanilang kinalabasan. Maaaring dagdagan ng mga pagsulong ang seguridad at kahusayan ng paggawa ng desisyon sa pamamagitan ng AI. Kredito: MIT

Ang isang mas mabilis na paraan upang masuri ang kawalan ng katiyakan kapag ang paggawa ng mga desisyon gamit ang AI ay maaaring humantong sa mas ligtas na mga resulta.

Dumarami, ang mga artipisyal na sistema ng katalinuhan, na kilala bilang malalim na pag-aaral ng mga neural network, ay ginagamit upang gumawa ng mga desisyon na mahalaga sa kalusugan at kaligtasan ng tao, tulad ng autonomous na pagmamaneho o mga diagnostic na medikal. Alam ng mga network na ito ang mga pattern sa malalaking kumplikadong mga hanay ng data na makakatulong sa pagpapasya. Ngunit paano natin malalaman na tama ang mga ito? Alexander Amini at ang kanyang mga kasamahan З at Harvard University nais malaman.

Bumuo sila ng isang mabilis na paraan para sa neural network upang makuti ang data at makuha hindi lamang ang hula kundi pati na rin ang antas ng kumpiyansa ng modelo batay sa kalidad ng magagamit na data. Ang mga pagsulong ay maaaring makatipid ng mga buhay, sapagkat ngayon ang malalim na pag-aaral ay ginagamit na sa totoong mundo. Ang antas ng kumpiyansa ng network ay maaaring ang pagkakaiba sa pagitan ng isang autonomous na sasakyan, na tumutukoy na “sa pamamagitan ng intersection lahat ng bagay ay malinaw” at “marahil ay malinaw, kaya huminto kung sakali”.

Ang mga modernong pamamaraan ng pagtantya sa kawalan ng katiyakan para sa mga neural network ay kadalasang mahal ng computationally at mabagal upang gumawa ng mga desisyon sa isang split segundo. Ngunit ang diskarte ni Amini, na tinawag na “malalim na pagbabalik ng ebidensya,” ay nagpapabilis sa proseso at maaaring humantong sa mas ligtas na mga resulta. “Kailangan namin ng kakayahang hindi lamang magkaroon ng mga modelo na may mahusay na pagganap, ngunit upang maunawaan din kung hindi namin mapagkakatiwalaan ang mga modelong iyon,” sabi ni Amini, isang mag-aaral ng doktor sa grupo ni Propesor Daniela Russ ng Laboratory of Computer Science and Artipisyal na Artipisyal ng MIT (CSAIL) ng MIT. .

“Ang ideyang ito ay mahalaga at naaangkop sa pangkalahatan. Maaari itong magamit upang suriin ang mga produkto batay sa mga modelong pinag-aralan. Sinusuri ang kawalang katiyakan ng pinag-aralan na modelo, nalaman din namin kung gaano karaming mga error ang maaaring asahan mula sa modelo at ang nawawalang data ay maaaring mapabuti ang modelo, “sabi ni Rus.

Ipapakita ni Amini ang pag-aaral sa kumperensya sa NeurIPS sa susunod na buwan kasama si Russ, na sina Andrew at Erna Viterby, isang propesor ng electrical engineering at computing, direktor ng CSAIL at representante ng dekan para sa pagsasaliksik sa MIT College of Computing Stefan Schwartzman; at nagtapos na mag-aaral na sina Wilco Schwarting ng Massachusetts Institute of Technology at Ava Saleimani ng Massachusetts Institute of Technology at Harvard.

Mabisang kawalan ng katiyakan

Kasunod sa kasaysayan ng up-and-down na malalim na pagsasanay ay nagpakita ng mahusay na pagiging epektibo sa iba’t ibang mga gawain, sa ilang mga kaso kahit na nakahihigit kawastuhan. At sa panahon ngayon ang malalim na pag-aaral ay tila pupunta kung saan pumupunta ang mga computer. Pinakain nito ang mga resulta ng mga search engine, feed ng social media at pagkilala sa mukha. “Kami ay nakagawa ng napakalaking pag-unlad gamit ang malalim na pag-aaral,” sabi ni Amini. “Alam na alam ng mga neural network ang tamang sagot na 99 porsyento ng oras.” Ngunit 99 porsyento ang hindi nito babawasin kung ang buhay ay magkaugnay.

“Ang isang bagay na iniiwasan ang mga mananaliksik ay ang kakayahan ng mga modelong ito na malaman at ipaalam sa amin kung kailan sila maaaring mali,” sabi ni Amini. “Kami ay talagang nagmamalasakit tungkol sa na 1 porsyento ng oras at tungkol sa kung paano namin mapagkakatiwalaan at mabisang tuklasin ang mga sitwasyong ito.”

Ang mga neural network ay maaaring napakalaking, kung minsan puspos ng bilyun-bilyong mga parameter. Kaya’t maaari itong maging isang mahirap na pagtaas ng computational, upang makakuha lamang ng isang sagot, hindi banggitin ang isang antas ng kumpiyansa. Ang pagtatasa ng kawalan ng katiyakan sa mga neural network ay hindi bago. Ngunit ang mga nakaraang diskarte, na nagmula sa malalim na pagsasanay sa Bayesian, ay maraming beses na umasa sa trabaho o sampling ng isang neural network upang maunawaan ang kumpiyansa nito. Ang prosesong ito ay tumatagal ng oras at memorya – isang luho na maaaring wala sa mataas na bilis ng trapiko.

Ang mga mananaliksik ay gumawa ng isang paraan upang matantya ang kawalan ng katiyakan sa isang pagsisimula lamang ng neural network. Bumuo sila ng isang network na may maramihang mga produkto, na gumagawa hindi lamang isang solusyon kundi pati na rin ng isang bagong pamamahagi ng probabilistic, kumukuha ng katibayan upang suportahan ang solusyon na iyon. Ang mga pamamahagi na ito, na tinatawag na batay sa ebidensya, ay direktang nakukuha ang kumpiyansa ng modelo sa pagtataya. Kasama dito ang anumang kawalang-katiyakan na naroon sa baseline pati na rin sa pangwakas na solusyon ng modelo. Ang pagkakaiba na ito ay maaaring senyasan kung posible na mabawasan ang kawalan ng katiyakan sa pamamagitan ng pagwawasto ng neural network mismo, o kung ang inging input data ay maingay lamang.

Suriin ang tiwala

Upang masubukan ang kanilang diskarte sa pagsubok, nagsimula ang mga mananaliksik sa isang hamon na gawain ng paningin sa computer. Itinuro nila sa kanilang neural network na pag-aralan ang isang manu-manong imahe ng kulay at tantyahin ang lalim na halaga (ibig sabihin, ang distansya mula sa lens ng camera) para sa bawat pixel. Ang isang autonomous na sasakyan ay maaaring gumamit ng mga katulad na kalkulasyon upang matantya ang kalapitan ng isang naglalakad o iba pang sasakyan, na hindi isang madaling gawain.

Ang pagganap ng kanilang network ay umaayon sa mga nakaraang modernong modelo, ngunit binigyan din ito ng pagkakataon na masuri ang sarili nitong kawalan ng katiyakan. Inaasahan ng mga mananaliksik na hinulaan ng network ang mataas na kawalan ng katiyakan para sa mga pixel, kung saan hinulaan nito ang maling lalim. “Napaka-calibrate nito sa mga pagkakamaling nagawa ng network, at sa palagay namin iyon ang isa sa pinakamahalagang bagay sa pagtatasa ng kalidad ng bagong pagtatasa ng kawalan ng katiyakan,” sabi ni Amini.

Upang masubukan ang pagkakalibrate ng stress, ipinakita din ng koponan na hinuhulaan ng network ang higit na kawalan ng katiyakan para sa hindi nagpapalaganap na data – ganap na mga bagong uri ng mga imahe na hindi pa nakatagpo sa panahon ng pagsasanay. Matapos nilang turuan ang network ng mga panloob na eksena sa bahay, pinakain nila siya ng isang serye ng mga eksenang pagmamaneho sa labas. Patuloy na nagbabala ang network na ang mga tugon sa mga bagong eksenang panlabas ay hindi sigurado. Ang pagsubok ay naka-highlight sa kakayahan ng network na markahan kung kailan hindi dapat pagtitiwalaan ng mga gumagamit ang mga desisyon nito. Sa mga kasong ito, “kung ito ay isang healthcare app, marahil ay hindi namin pinagkakatiwalaan ang diagnosis na ibinibigay ng modelo, at sa halip ay maghanap ng pangalawang opinyon,” sabi ni Amini.

Alam pa ng network kung kailan kunan ng larawan, na posibleng protektahan laban sa mga pag-atake sa pagmamanipula ng data. Sa isa pang pagsubok, nadagdagan ng mga mananaliksik ang antas ng ingay ng karibal sa isang bilang ng mga imaheng isinumite nila sa network. Ang epekto ay napabayaan – bahagya napapansin ng mata ng tao – ngunit ang network ay sniffed ang mga imaheng ito, na minamarkahan ang kanilang mga resulta sa isang mataas na antas ng kawalan ng katiyakan. Ang kakayahang ipatunog ang alarma sa napalsipikadong data ay maaaring makatulong na makita at hadlangan ang mga pag-atake na mapagkumpitensyahan – isang lumalaking pag-aalala sa isang edad ng malalim na pamemeke.

Ang malalim na aktwal na pagbabalik ay “isang simple at matikas na diskarte na nagsusulong sa larangan ng pagtantiya ng kawalan ng katiyakan, na napakahalaga para sa robot at iba pang mga sistema ng kontrol sa totoong mundo,” sabi ni Raya Hadsell, isang artipisyal na mananaliksik ng intelligence sa DeepMind na hindi kasangkot. “Ginagawa ito sa isang bagong paraan upang maiwasan ang ilang mga magulo na aspeto ng iba pang mga diskarte – tulad ng sampling o ensembles – na ginagawang hindi lamang matikas, ngunit din mas mahusay ang computationally – isang panalong kombinasyon.”

Ang malalim na aktwal na pagbabalik ay maaaring dagdagan ang seguridad kapag nagpapasya gamit ang AI. “Nagsisimula na kaming makakita ng higit pa sa mga iyon [neural network] ang mga modelo ay dumadaloy mula sa lab ng pananaliksik patungo sa totoong mundo, sa mga sitwasyong nakakaapekto sa mga taong may potensyal na nagbabanta sa buhay, “sabi ni Amini. “Ang sinumang gumagamit ng pamamaraan, maging isang doktor o isang taong nakaupo sa upuang pampasahero ng isang sasakyan, ay dapat magkaroon ng kamalayan sa anumang peligro o kawalan ng katiyakan na nauugnay sa pasyang ito.” Iminungkahi niya na ang system ay hindi lamang mabilis na nagpapahiwatig ng kawalan ng katiyakan, ngunit ginagamit din ito upang makagawa ng mas konserbatibong mga desisyon sa mga mapanganib na sitwasyon, tulad ng isang autonomous na sasakyan na papalapit sa isang intersection.

“Ang anumang lugar na magagawang lumawak sa pag-aaral ng makina ay dapat magkaroon ng isang solidong kamalayan sa kawalan ng katiyakan,” sabi niya.

Ang gawaing ito ay bahagyang suportado ng National Science Foundation at ng Toyota Research Institute sa pamamagitan ng Toyota-CSAIL Joint Research Center.

Related articles

Comments

LEAVE A REPLY

Please enter your comment!
Please enter your name here

Share article

Latest articles

Ang pag-iimbak ng nababagong enerhiya sa mga bato sa halip na mga baterya ng lithium

Kapag may labis na kuryente mula sa hangin o solar na enerhiya, sisingilin ang supply ng enerhiya. Ginagawa ito gamit ang isang sistema...

Ang Flat Pasta ay Pinagbuti Na Ang Morphs Sa Hugis Kapag Luto

Pinangunahan ng CMU Lab ang pagbuo ng pasta na humuhubog kapag luto na. Kredito: Carnegie Mellon University Ang mga flat-pack noodle ay lumilikha ng...

Mga debate sa mga Dalubhasa: Na-diagnose ba ang PTSD?

Ang ilang mga klinika ay nag-aalala na post-traumatic stress disorder (PTSD) ang diyagnosis ay nadagdagan sa buong lipunan ng Kanluran mula pa noong huling...

Ang ilaw ng Zap ay nagpapalit ng mga kulay at pattern ng mga bagay

Ang bagong sistema ay gumagamit ng ilaw na UV na inaasahang sa mga bagay na natatakpan ng isang tinain na pinapagana ng ilaw upang...

Oo, Maaari kang Magkaroon ng Higit sa 150 Mga Kaibigan

Ang mga indibidwal ay maaaring mapanatili ang matatag na mga pakikipag-ugnay sa lipunan na may halos 150 katao. Ito ay isang mungkahi na...

Newsletter

Subscribe to stay updated.