Ang bagong algorithm ng social intelligence ng MIT ay tumutulong sa paglikha ng mga makina na mas nakakaunawa sa mga layunin ng tao

Ang isang bagong algorithm na may kakayahang kumuha ng mga layunin at plano ay makakatulong sa mga makina na mas mahusay na umangkop sa hindi perpektong katangian ng pagpaplano ng tao.

Sa isang klasikong eksperimento sa human intelligence ng tao ng mga psychologist na sina Felix Warneken at Michael Thomasel (tingnan ang video sa ibaba), napansin ng isang 18 taong gulang ang isang lalaking nagdadala ng isang salansan ng mga libro sa isang hindi nakabukas na kubeta. Kapag naabot ng isang lalaki ang kubeta, paulit-ulit siyang kumakatok sa pinto ng kubeta, pagkatapos ay gumawa ng isang nagulat na ingay.

Pagkatapos ng isang bagay na kahanga-hangang nangyari: ang sanggol ay nag-aalok ng tulong. Nalaman ang layunin ng lalaki, ang sanggol ay lumapit sa locker at binubuksan ang pinto, pinapayagan ang lalaki na ilagay ang kanyang mga libro sa loob. Ngunit paano makukuha ng isang konklusyon ang isang bata na may ganoong limitadong karanasan sa buhay?

Kamakailan lamang, nai-redirect ng mga syentista ng computer ang katanungang ito sa computer: paano magagawa ang mga machine sa pareho?

Marahil ang pinakamahalagang sangkap ng isang pag-unawa sa engineering ng ganitong uri ay kung bakit kami ang pinaka tao: ang aming mga pagkakamali. Tulad ng isang paslit na mahihinuha lamang ang layunin ng isang tao sa pamamagitan ng kanyang pagkabigo, ang mga makina na hinuha ang aming mga layunin ay dapat isaalang-alang ang aming mga maling aksyon at plano.

Sa paghahanap ng panlipunang katalinuhan na ito sa mga makina, wala na ang mga mananaliksik ЗAng Laboratory ng Agham sa Computer at Artipisyal na Katalinuhan (CSAIL) at ang Kagawaran ng Brain at Cognitive Science ay lumikha ng isang algorithm na may kakayahang kumuha ng mga layunin at plano, kahit na ang mga plano ay maaaring mabigo.

Ang uri ng pagsasaliksik na ito ay maaaring magamit upang mapagbuti ang isang bilang ng mga pantulong na teknolohiya, mga robot para sa pakikipagtulungan at pangangalaga, at mga digital na katulong tulad ng Siri at Alexa.

Mga makina na nakakaunawa ng mga layunin ng tao

Ipinapakita ng “ahente” at ng “tagamasid” kung paano may kakayahang kumuha ng mga layunin at plano ang bagong MIT algorithm, kahit na mabigo ang mga planong iyon. Dito, ang ahente ay gumawa ng isang maling plano upang makarating sa asul na bato, na nakikita ng tagamasid bilang isang pagkakataon. May-akda ng imahe: kagandahang-loob ng mga mananaliksik.

“Ang kakayahang mag-account para sa mga pagkakamali ay maaaring maging mahalaga sa paglikha ng mga machine na mapagkakatiwalaan na gumawa ng mga konklusyon at kumilos para sa aming pinakamahusay na interes,” sabi ni Tang Zhi-xuan, isang nagtapos na mag-aaral sa MIT’s Department of Electrical and Computer Engineering at nangungunang may-akda ng isang bagong papel sa pag-aaral. “Kung hindi man, ang mga system ng AI ay maaaring maling tapusin na dahil nabigo kaming makamit ang mga layunin na mas mataas ang order, ang mga layuning iyon ay hindi kanais-nais. Nakita namin kung ano ang nangyayari kapag ang mga algorithm ay kumakain sa aming pinabalik at hindi planadong paggamit ng mga social network, na humahantong sa amin sa mga landas ng pagtitiwala at polariseysyon. Sa isip, ang mga algorithm ng hinaharap ay makikilala ang ating mga pagkakamali, masamang ugali at kawalang-katwiran at makakatulong na maiwasan kaysa mapalakas ang mga ito. ”

Upang likhain ang kanilang modelo, ginamit ng koponan ang Gen, isang bagong platform ng AI programming kamakailan na binuo sa MIT, upang pagsamahin ang simbolikong pagpaplano ng AI sa hinuha ni Bayesian. Ang hinuha ng Bayesian ay nagbibigay ng pinakamainam na paraan upang pagsamahin ang mga hindi sigurado na paniniwala sa bagong data at malawakang ginagamit para sa pagtatasa ng panganib sa pananalapi, pagsusuri sa diagnostic, at hula sa halalan.

Ang modelo ng koponan ay naisagawa nang 20-150 beses na mas mabilis kaysa sa umiiral na pamamaraan ng baseline, na tinatawag na Bayesian Inverse Learning Reinforcement (BIRL), na pinag-aaralan ang mga layunin, halaga, at gantimpala ng isang ahente sa pamamagitan ng pagmamasid sa kanyang pag-uugali, at pagtatangka na kalkulahin nang maaga ang mga kumpletong patakaran o plano. Ang bagong modelo ay tumpak na 75 porsyento ng oras kapag nagmula sa mga layunin.

“Iniwan ng AI ang ‘pamantayang modelo’ kung saan ang makina ay binibigyan ng isang nakapirming, kilalang layunin,” sabi ni Stuart Russell, isang propesor ng pagsasanay sa engineering sa Smith-Zadeh sa University of California, Berkeley. “Sa halip, alam ng makina na hindi nito alam kung ano ang gusto natin, na nangangahulugang ang pagsasaliksik sa kung paano mahihinuha ang mga layunin at benepisyo mula sa pag-uugali ng tao ay nagiging isang pangunahing tema ng AI. Sineseryoso ng artikulong ito ang layuning ito; sa partikular, ito ay isang hakbang patungo sa pagmomodelo – at samakatuwid ay invertting – ang aktwal na proseso kung saan bumubuo ang mga tao ng pag-uugali mula sa mga layunin at kagustuhan. “

Kung paano ito gumagana

Bagaman malaki ang nagawa na trabaho upang mabawasan ang mga layunin at hangarin ng mga ahente, ang karamihan sa gawaing ito ay nagpapahiwatig na ang mga ahente ay kumikilos nang mahusay upang makamit ang kanilang mga layunin.

Gayunpaman, ang koponan ay partikular na binigyang inspirasyon ng karaniwang paraan ng pagpaplano ng tao, na higit sa lahat ay hindi pinaplano: huwag planuhin ang lahat nang maaga, ngunit sa halip ay bumuo lamang ng mga bahagyang plano, ipatupad ang mga ito at pagkatapos ay magplano muli mula doon. Bagaman maaaring humantong ito sa mga pagkakamali kung hindi ito sapat na mag-isip ng “maaga sa oras”, ngunit binabawasan din nito ang pagkarga na nagbibigay-malay.

Halimbawa, isipin na pinapanood mo ang iyong kaibigan na naghahanda ng pagkain at nais mong tumulong sa pamamagitan ng pag-unawa sa kung ano ang niluluto nila. Iminumungkahi mo ang mga sumusunod na hakbang na maaaring gawin ng iyong kaibigan: marahil ay painitin ang oven at pagkatapos ihanda ang kuwarta para sa apple pie. Pagkatapos ay “i-save” mo lamang ang mga bahagyang mga plano na mananatili sa linya sa kung ano ang aktwal na ginagawa ng iyong kaibigan, at pagkatapos ay ulitin ang proseso, pagpaplano nang maaga ilang hakbang lamang mula doon.

Sa sandaling nakita mo ang iyong kaibigan na gumawa ng kuwarta, maaari mong limitahan ang mga posibilidad sa mga produktong panaderya lamang at hulaan na maaari nilang hatiin ang mga mansanas sa malapit o makakuha ng isang pecan para sa cake mix. Sa paglaon ay mapupuksa mo ang lahat ng mga plano sa pagkain na hindi nagawa ng iyong kaibigan sa pamamagitan lamang ng pagpapanatili ng mga posibleng plano (hal. Mga resipe ng pie). Kapag natitiyak mo kung ano ang ulam na ito, maaari kang mag-alok ng tulong.

Ang command output algorithm, na tinawag na “Sequential Reverse Lookup (SIPS)”, ay sumusunod sa pagkakasunud-sunod na ito upang mapaghihinuha ang mga layunin ng ahente dahil gumagawa lamang ito ng mga bahagyang plano sa bawat yugto at pinuputol ang mga malamang na hindi plano. Sapagkat ang modelo ay nagplano lamang ng ilang mga hakbang pasulong sa bawat oras, isinasaalang-alang din nito ang posibilidad na ang ahente – ang iyong kaibigan – ay maaaring gawin ang pareho. Kasama rito ang posibilidad ng mga pagkakamali dahil sa limitadong pag-iiskedyul, halimbawa, kung hindi mo napagtanto na maaaring kailanganin mo ng dalawang kamay bago buksan ang ref. Ang pagkakaroon ng pagkilala sa mga potensyal na pagkabigo nang maaga, inaasahan ng koponan na ang modelo ay maaaring magamit ng mga machine upang mas mahusay na mag-alok ng tulong.

“Ang isa sa aming maagang pananaw ay na kung nais mong mahihinuha ang mga layunin ng isang tao, hindi mo kailangang mag-isip nang higit pa kaysa sa iniisip nila. Napagtanto namin na maaari itong magamit hindi lamang upang mapabilis ang paghuhula ng mga target, ngunit din upang maibawas ang mga inilaan na target mula sa masyadong maikli na mga aksyon upang mapagtagumpayan mula sa pag-scale ng mga algorithm hanggang sa paggalugad ng mga paraan upang matugunan ang mas pangunahing mga limitasyon ng mga umiiral nang mga system ng AI, “sabi ni Vikash Mansingka, Chief isang mananaliksik sa Massachusetts Institute of Technology at isa sa mga tagapayo ni Tang Zhi-Xuan, pati na rin si Joshua Tenenbaum, isang propesor sa Massachusetts Institute of Technology sa larangan ng agham sa utak at nagbibigay-malay. “Ito ay bahagi ng aming mas malaking buwan – upang i-recycle ang 18 buwan ng sentido komun ng tao.”

Ang gawain ay ayon sa konsepto batay sa naunang mga nagbibigay-malay na modelo ng Tenenbaum, na ipinapakita kung gaano mas simple ang mga konklusyon ng mga bata at kahit na 10 buwan na mga sanggol tungkol sa mga layunin ng iba ay maaaring mabilang bilang isang anyo ng kabaligtaran na Bayesian.

Bagaman sa ngayon ay sinisiyasat ng mga mananaliksik ang mga natuklasan na medyo maliit lamang sa mga problema sa pagpaplano na may kaugnayan sa naayos na mga hanay ng layunin, sa hinaharap ay plano nilang tuklasin ang mas mayamang mga hierarchy ng mga layunin at plano ng tao. Sa pamamagitan ng pag-coding o pag-aaral ng mga hierarchies na ito, ang mga machine ay maaaring makakuha ng mas malawak na mga layunin pati na rin ang mas malalim na mga layunin na hinahatid nila.

“Bagaman ang gawaing ito ay isang maliit lamang na paunang hakbang, inaasahan kong ang pag-aaral na ito ay maglalagay ng ilan sa mga pilosopiko at konseptwal na pundasyon na kinakailangan upang lumikha ng mga makina na tunay na nakakaunawa ng mga layunin, plano, at pagpapahalaga ng tao,” sabi ni Xuan. “Ang pangunahing diskarte sa pagmomodelo ng mga tao bilang hindi perpektong intelektuwal na nararamdaman napaka-promising. Ngayon ay pinapayagan kaming makagawa ng mga konklusyon kapag ang mga plano ay mali, at marahil ay papayagan kaming gumawa ng mga konklusyon kapag ang mga tao ay sumusunod din sa mga maling paniniwala, palagay at alituntunin. “

Sanggunian: “Internet Bayesian Target na Hinuha para sa Limitadong Rational Agents ng Pagpaplano” Tang Zhi-Xuan, Jordin L. Mann, Tom Silver, Joshua B. Tenenbaum, at Vikash K. Mansingka, Oktubre 25, 2020, Computer Science> Artipisyal na Katalinuhan.
arXiv: 2006.07532

Sina Ji-Xuan, Mansingka at Tenenbaum ay kapwa may akda ng artikulo kasama ang nagtapos na mag-aaral ng EECS na si Jordan Mann at nagtapos na mag-aaral na si Tom Silver. Halos ipinakita nila ang kanilang trabaho noong nakaraang linggo sa Conference on Neural Information Processing Systems (NeurIPS 2020).

Related articles

Comments

LEAVE A REPLY

Please enter your comment!
Please enter your name here

Share article

Latest articles

Ang mga paruparo ng dagat ay nakikipaglaban na sa proseso ng pagpapatatag ng South Sea

Ang isang kumbinasyon ng mga butterflies sa dagat "Balik sa Limacina”Kinuha sa panahon ng paglalayag sa dagat ng AMT27. Kredito: Lisette Mekkes &...

Ang Makabuluhang Pagtuklas ay Maaaring Buksan ang Bagong Larangan ng Teknolohiya ng Quantum na Tinawag na “Magnonics”

Ang isang teknolohikal na tagumpay ay maaaring paganahin ang isang bagong larangan ng kabuuan ng teknolohiya na tinatawag na "magnonics" sa pamamagitan ng matagumpay...

Ipinapakita ng mga pag-aaral sa patlang na ang pag-icing ay maaaring gastos sa mga turbine ng hangin hanggang sa 80% ng paggawa ng kuryente

Ang mga mananaliksik ay dumating sa site upang pag-aralan ang mga icicle sa wind farm na ito sa silangang China. May-akda: Larawan sa...

Ang Gut Microbes ay maaaring maging isang Susi sa Pagbubukas ng Pagkabalisa

Isang micrograph ng pag-scan ng electron ng Escherichia coli, na isa sa maraming uri ng bakterya na matatagpuan sa mga bituka ng mammalian. ...

Isiniwalat ang 260-Milyong Taon na Killing Machine

Isang live na muling pagtatayo ng Anteosaurus na umaatake sa isang halaman ng Moschognathus. Kredito: Alex Bernardini (@SimplexPaleo) Dating itinuturing na mabigat, mabagal at...

Newsletter

Subscribe to stay updated.