Jump to content

Արհեստական նեյրոնային ցանց

Վիքիպեդիայից՝ ազատ հանրագիտարանից
Արհեստական ​​նեյրոնային ցանցը հանգույցների փոխկապակցված խումբ է, որը ստեղծված է ուղեղի նեյրոնների պարզեցման հիման վրա: Այստեղ յուրաքանչյուր շրջանաձև հանգույց պատկերում է արհեստական ​​նեյրոն, իսկ սլաքը՝ մի արհեստական ​​նեյրոնի ելքը կապում է մյուսի մուտքին։

Մեքենայական ուսուցման մեջ, նեյրոնային ցանցը (նաև արհեստական ​​նեյրոնային ցանցը կամ նեյրոնային ցանցը, կրճատ՝ ԱՆՑ կամ ՆՑ), կենդանիների ուղեղում կենսաբանական նեյրոնային ցանցերի կառուցվածքի և գործառույթի վրա հիմնված մոդել է[1][2]։

ԱՆՑ-ն բաղկացած է կապակցված հանգույցներից, որոնք կոչվում են արհեստական ​​նեյրոններ, որոնք ընդհանուր առմամբ մոդելավորում են ուղեղի նեյրոնները։ Դրանք միացված են կողերով, որոնք մոդելավորում են ուղեղի սինապսները։ Յուրաքանչյուր արհեստական ​​նեյրոն ազդանշաններ է ստանում կապակցված նեյրոններից, այնուհետև դրանք մշակում և ազդանշան է ուղարկում իր հետ կապակցված այլ նեյրոններին։ «Ազդանշանը» իրական թիվ է, և հաշվարկվում է նեյրոնի մուտքերի գումարի ոչ գծային ֆունկցիայի միջոցով, որը կոչվում է ակտիվացման ֆունկցիա։ Յուրաքանչյուր միացման ազդանշանի ուժը որոշվում է կշռով, որն ուսուցման ընթացքում ճշգրտվում է։

Սովորաբար, նեյրոնները համախմբված են շերտերի մեջ։ Տարբեր շերտերը իրենց մուտքերի վրա տարբեր փոխակերպումներ կարող են կատարել։ Ազդանշանները առաջին շերտից (մուտքային շերտ) փոխանցվում են վերջին շերտ (ելքային շերտ)՝ հնարավոր է անցնելով մի քանի միջանկյալ շերտերով (թաքնված շերտեր)։ Ցանցը սովորաբար կոչվում է խորը նեյրոնային ցանց, եթե այն առնվազն 2 թաքնված շերտ ունի[3]։

Արհեստական ​​նեյրոնային ցանցերն օգտագործվում են կանխատեսող մոդելավորման, հարմարվողական կառավարման, արհեստական ​​ինտելեկտի և այլ խնդիրներ լուծելու համար։ Նրանք կարող են սովորել փորձից և կարող են եզրակացություններ անել բարդ և թվացյալ կապ չունեցող տեղեկատվությունների բազմությունից։

Ուսուցում[խմբագրել | խմբագրել կոդը]

Նեյչոնային ցանցերը սովորաբար վերապատրաստվում են էմպիրիկ ռիսկերի նվազեցման միջոցով։ Այս մեթոդը հիմնված է ցանցի պարամետրերի օպտիմալացման գաղափարի վրա՝ կանխատեսվող արդյունքի և տվյալ տվյալների բազայի իրական նպատակային արժեքների միջև տարբերությունը՝ էմպիրիկ ռիսկը, նվազագույնի հասցնելու վրա[4]։ Ցանցի պարամետրերը գնահատելու համար սովորաբար օգտագործվում են գրադիենտի մեթոդներ, ինչպիսիք են սխալի հետտարածումը[4]։ Ուսուցման փուլում ԱՆՑ-ները սովորում են նշված ուսուցող տվյալներից՝ պարբերաբար թարմացնելով իրենց պարամետրերը՝ կորստի ֆունկցիան նվազագույնի հասցնելով համար[5]։ Այս մեթոդը ցանցին թույլ է տալիս ընդհանրացնել չերևացող տվյալները։

Պատմություն[խմբագրել | խմբագրել կոդը]

Պատմականորեն թվային համակարգիչները առաջացել են ֆոն Նեյմանի մոդելից և գործում են մի շարք պրոցեսորների կողմից հիշողության նկատմամբ հստակ հրահանգների կատարման միջոցով։ Մյուս կողմից, նեյրոնային ցանցերը առաջացել են կենսաբանական համակարգերի կապակցվածության հաշվարկով տեղեկատվության մշակման մոդելավորման արդյունքում։ Ի տարբերություն ֆոն Նեյմանի մոդելի, կապակցական հաշվարկը հիշողությունը մշակումից չի տարանջատում։

Ուղիղ կապով նեյրոնային ցանցի (FNN) ամենապարզ տեսակը դա գծային ցանցն է, որը բաղկացած է ելքային հանգույցների մեկ շերտից. մուտքերը ուղղակիորեն տրվում են ելքերին մի շարք կշիռների միջոցով։ Յուրաքանչյուր հանգույցում հաշվարկվում է kշիռների արտադրյալների և մուտքերի գումարը։ Այս հաշվարկված արդյունքների և տրված թիրախային արժեքների միջև միջին քառակուսի սխալները նվազագույնի են հասցվում կշիռների ճշգրտման միջոցով։ Այս տեխնիկան հայտնի է ավելի քան երկու դար որպես նվազագույն քառակուսիների կամ գծային ռեգրեսիայի մեթոդ։ Լեժանդրը (1805) և Գաուսը (1795) այն օգտագործել են մի շարք կետերին լավ կոպիտ գծային համապատասխանություն գտնելու միջոց՝ մոլորակների շարժման կանխատեսման համար[6][7][8][9][10]։

Ուորեն ՄաքՔալոկը և Ուոլթեր Փիթսը[11] (1943) նեյրոնային ցանցերի համար նույնպես դիտարկել են սովորել չպահանջող հաշվողական մոդելը[12]։

1940-ականների վերջին Դոնալդ Հեբբը[13] ստեղծեց ուսուցման վարկած՝ հիմնված նեյրոնային պլաստիկության մեխանիզմի վրա, որը հայտնի դարձավ որպես Հեբբի ուսուցում։ Հեբբի ուսուցումը համարվում է «տիպիկ» ինքնուսուցման կանոն, և դրա հետագա տարբերակները երկարաժամկետ հզորացման վաղ մոդելներ էին։ Այս գաղափարները սկսեցին կիրառվել հաշվողական մոդելների՝ 1948 թվականին Թյուրինգի «անկազմակերպ մեքենաների» վրա։ Ֆարլին և Ուեսլի Ա. Քլարկը առաջինն էին, ովքեր 1954 թվականին MIT-ում նմանակեցին Հեբբի ցանցը։ Նրանք օգտագործում էին հաշվողական մեքենաներ, որոնք այն ժամանակ կոչվում էին «հաշվիչներ»։ Նեյրոնային ցանցի այլ հաշվողական մեքենաներ ստեղծվել են Ռոչեսթերի, Հոլանդի, Հաբիթի և Դուդայի կողմից 1956 թվականին[14]։ were the first to simulate a Hebbian network in 1954 at MIT. They used computational machines, then called "calculators". Other neural network computational machines were created by Rochester, Holland, Habit, and Duda[15] 1958 թվականին հոգեբան Ֆրենկ Ռոզենբլատը հորինել է պերցեպտրոնը՝ առաջին ներդրված արհեստական ​​նեյրոնային ցանցը[16][17][18][19], որը ֆինանսավորվել էր Միացյալ Նահանգների ռազմածովային հետազոտությունների գրասենյակի կողմից[20]։

Պերցեպտրոնի գյուտը բարձրացրեց հանրային ոգևորությունը արհեստական ​​նեյրոնային ցանցերում հետազոտությունների նկատմամբ՝ ինչը ԱՄՆ կառավարությանը ստիպեց կտրուկ ավելացնել խորը ուսուցման հետազոտության ֆինանսավորումը։ Սա հանգեցրեց «AI-ի ոսկե դարաշրջանին», ինչին օժանդակում էին համակարգչային գիտնականների լավատեսական հայտարարությունները՝ պերցեպտրոնների՝ մարդկային ինտելեկտը ընդօրինակելու կարողության վերաբերյալ[21]։ Օրինակ, 1957 թվականին Հերբերտ Սայմոնը հայտարարել է․[21]

Իմ նպատակը չէ զարմացնել կամ ցնցել ձեզ, բայց ամենապարզ ձևը, որը կարող եմ ամփոփել, ասելն է, որ այժմ աշխարհում կան մեքենաներ, որոնք մտածում են, սովորում և ստեղծում։ Ավելին, դրանց այս կարողությունը արագորեն կմեծանա, և տեսանելի ապագայում իրականացվող խնդիրների շրջանակը կընդլայնվի այնքան, որքանի ընդունակ է մարդկային միտքը։

Այնուամենայնիվ, դա ajdqan 1l այդպես չէր, քանի որ Մինսկու և Փեյպերտի (1969) աշխատանքից հետո Միացյալ Նահանգներում հետազոտությունները լճացել էին[22], ովքեր հայտնաբերեցին, որ հիմնական պերցեպտրոններն ի վիճակի չեն մշակել բացառիկ կամ համապարփակ շրջան, և որ համակարգիչները բավարար հզորություն չունեն օգտակար նեյրոնային ցանցեր մշակելու համար։ Սա, ի թիվս այլ գործոնների, ինչպիսիք են 1973 թվականին Ջեյմս Լայթհիլի զեկույցը, որում ասվում է, որ Արհեստական ​​ինտելեկտի հետազոտությունը «չի տվել այն ժամանակ խոստացված մեծ ազդեցությունը», բերեց ԱԻ-ի հետազոտությունների ֆինանսավորման փակմանը Մեծ Բրիտանիայում և աշխարհի բազմաթիվ խոշոր հաստատություններում, բացառությամբ երկու համալսարանի[23]։ Սա ԱԻ Ձմեռ դարաշրջանի սկիզբ դրեց՝ պայմանավորված Միացյալ Նահանգներում և այլ արևմտյան երկրներում պետական ​​ֆինանսավորման նվազմամբ և արհեստական ​​ինտելեկտի նկատմամբ ուշադրության անկմամբ[24][23]։

ԱԻ Ձմեռ շրջանում, սակայն, ԱՄՆ-ից դուրս, հատկապես Արևելյան Եվրոպայում, հետազոտությունները շարունակվեցին։ Մինսկու և Փեյփերտի «Պերցեպտրոնների մասին» գրքի հրատարակվելու պահին, բազմաշերտ պերցեպտրոնների (ԲՇՊ) ուսուցման մեթոդները արդեն հայտնի էին։ Առաջին խորը ուսուցման ԲՇՊ-ն, որպես տվյալների մշակման խմբային մեթոդ, 1965 թվականին հրատարակվել է Ալեքսեյ Գրիգորևիչ Իվախնենկոյի և Վալենտին Լապայի կողմից, որպես տվյալների մշակման խմբային մեթոդ[25][26][27]։ Առաջին խորը ուսուցման ԲՇՊ-ն, որը ուսուցանվել է ստոխաստիկ գրադիենտ մեթոդով[28] 1967 թվականին հրատարակվել է Շունիչի Ամարիի կողմից[29][30]։

1982 թվականին Տևո Կոհոնենը նկարագրել է ինքնակազմակերպվող քարտեզները (ԻԿՔ)[31][32]։ ԻԿՔ-ները նեյրոնային ցանցեր են, որոնք սովորում են լայնածավալ տվյալների փոքր չափերի ներկայացումներ՝ պահպանելով տվյալների տոպոլոգիական կառուցվածքը։ Դրանք սովորում են մրցակցային ուսուցման եղանակով[33][31]։

Ժամանակագրություն[խմբագրել | խմբագրել կոդը]

  • 1943 - Ու. Մակկալոկը և Ու. Պիտսը ձևավորում են նեյրոնային ցանցի հասկացությունը նյարդային ակտիվության և գաղափարների տրամաբանական հաշվարկի վերաբերյալ հիմքային հոդվածում[34].
  • 1948 - Նորբերտ Վիները գործընկերների հետ միասին հրատարակեցին կիբերնետիկայի մասին աշխատանքը։ Հիմնական գաղափարը հանդիսանում է մաթեմատիկական մոդելների միջոցով բարդ բիոլոգիական պրոցեսների ներկայացումը։
  • 1949 - Դ. Խեբբը առաջարկում է ուսուցման առաջին ալգորիթը։
  • 1958 Ֆ. Ռոզենբատտը ստեղծում է միաշերտ Պերսեպտրոն։ Պերցեպտրոնը ոընի որոշակի առանձնահատկություն ` այն կիրառում է կերպարների ճանաչման , եղանակի կանխատեսման և այլ խնդիրներում։ Թվում էր, թե ամբողջական արհեստական ինտելեկտի կառուցումը այլևս սարերի ետևում չէ։ Մակկալոկը և նրա հետնորդները դուրս եկան «Կիբերնետիկական ակումբից»։
  • 1960 թ.-ին Կաղապար:TranslationՈւիդրոուն իր ուսանող Խոֆֆոմի հետ համատեղ դելտա-կանոնի հիման վրա (Ուիդրոուի բանաձևեր) մշակեցին Ադալինը, որը անմիջապես սկսեց կիրառվել կանխատեսման և արդյունավետ կառավարման խնդիրներում։ Ադալինը կառուցվել էր նրանց (Ուիդրոու - Խոֆֆոմ) իսկ կողմից արդեն ստեղծված սկուզբունքորեն նոր էլեմենտների բազայի հիման վրա՝ մեմիստորի հիման վրա[35]. Այժմ Ադալինը հանդիսանում է ազդանշանների մշակման բազմաթիվ համակարգերի ստանդարտ էլեմենտը[36]։
  • 1963 թ.-ին АН СССР Ինֆորմացիայի փոխանցման խնդիրների ինստիտուտում Ա. Պ. Պետրովի կողմից կատարվում է պերցեպտրոնի համար «բարդ» խնդիրների մանրակրկիտ ուսումնասիրություն[37]. ԱՆՑ մոդելավորման ոլորտում այդ պիոներական աշխատանքը ԽՍՀՄ-ում ծառայեց որպես Մ. Մ. Բոնգարդի համար նոր գաղափարների կոմպլեքսի աղբյուր, որպես «պերցեպտրոնի ալգորիթմի փոքր համեմատական ձևափոխություն թերությունները ուղղելու համար[38] : Ա. Պետրովի և Մ. Մ. Բոնգարդի աշխատանքները նպաստեցին , որ ԽՍՀՄ-ում ԱՆՑ վերաբերյալ առաջին էյֆորիայի ալիքը հարթվի։
  • 1969 թ.-ին Մ. Մինսկին հրապարակում է պերցեպտրոնի սահմանափակության փաստերը և ցույց է տալիս , որ այն ունակ չէ լուծելու մի շարք խնդիրներ ("Ազնվության" և "միայնակ բլոկում" խնդիրներ)` կապված ներկայացումների այլաձևության հետ։ Նեյրոնային ցանցերի նկատմամբ հետաքրքրությունը կտրուկ ընկնում է։
  • 1973 թ;-ին Վ. Վ. Խակիոմովը առաջարկում է սպլայների հիման վրա սինապսներով ոչ գծային մոդել և ներդնում է այն բժշկության, էկոլոգիայի, երկրաբանության խնդիրների լուծման համար։ Խակիմով Վ. Վ. Սպլայներով կոռելյացիոն կախվածությունների մոդելավորում երկրաբանության և էկոլոգիայի օրինակներով . — Մ.: «ՄՊՀ»։ «Նևա»,2003, 144 էջ.
  • 1974 — Պոլ Ջ. Վերբոսը[39] և Ա. Ի. Գալուշկինը[40] միաժամանակ ստեղծում են սխալների հետադարձ տարածման ալգորիթը բազմաշերտ պերցեպտրոնների ուսումնասիրման համար։ Հայտնագործությունը առանձնապես ուշադրության չի արժանանում։
  • 1975 — ֆուկսիման իրենից ներկայացնում է Կոգնիտրոն` ինքնաձևավորվող ցանց ` նախատեսված այլընտրանքային կերպարների ճանաչման համար , սակայն դա հասանելի է փաստացիորեն կերպարների բոլոր վիճակների հիշման պարագայում։
  • 1982 — մոռացության էտապից հետո նեյրոնային ցանցերի նկատմամբ հետաքրքրությունը կրկին աճում է։ Ջ. Խոպֆիլդը (en:John Joseph Hopfield) ցույց տվեց , որ հետադարձ կապերով նեյրոնային ցանցը կարող է իրենից ներկայացնել համակարգ, որը նվազեցնում է էներգիան (այսպես կոչված Խոպֆիլդի ցանց) ։ Կոխոնենի կողմից ներկայացված են անցերի մոդելներ , որոնք ուսուցանվում են առանց ուսուցչի (Կոխոնենի նեյրոնային ցանց)և լուծում են կլաստերիզացիայի խնդիրներ,տվյալների վիզուալիզացիա (Կոխոնենի ինքնակազմակերպվող քարտ)և տվյալների վերլուծության այլ խնդիրներ։
  • 1986Դովիդ Ի. Ռումելխարտի, Ջ. Ե. Խինտոնի և Ռոնալդ Ջ. Վիլյամսի[41] ևիրարից անկախ ու միաժամանակ Ս. Ի. Բարցևի և Վ. Ա. Օխոնինի կողմից (Կրասնոյարսկյան խումբ)[42] մշակվել և զարգացել է սխալների հետադարձ տարածման մեթոդը. Սկսվեց ուսուցանվող նեյրոնային ցանցերի նկատմամբ հետաքրքրությունը։

Ինչ է նեյրոնային ցանցը[խմբագրել | խմբագրել կոդը]

Նեյրոն[խմբագրել | խմբագրել կոդը]

Նեյրոնը հաշվողական միավոր է, որը տեղեկատվություն է ստանում, պարզ հաշվարկներ է կատարում դրա վրա և փոխանցում։ Դրանք բաժանվում են երեք հիմնական տեսակի՝ մուտքային, թաքնված և ելքային։ Այն դեպքում, երբ նեյրոնային ցանցը բաղկացած է մեծ թվով նեյրոններից, ներմուծվում է շերտ տերմինը։ Համապատասխանաբար, կա մուտքային շերտ, որը ստանում է տեղեկատվություն, թաքնված շերտեր, որոնք մշակում են այն, և ելքային շերտ, որը ցուցադրում է արդյունքը։ Նեյրոններից յուրաքանչյուրն ունի 2 հիմնական պարամետր՝ մուտքային տվյալներ (input data) և ելքային տվյալներ (output data)։ Մուտքային նեյրոնի դեպքում՝ input=output։ Մնացած մասում մուտքագրման դաշտը պարունակում է նախորդ շերտի բոլոր նեյրոնների ընդհանուր տեղեկատվությունը, որից հետո այն նորմալացվում է՝ օգտագործելով ակտիվացման ֆունկցիան։

Նեյրոնը կատարում է պարզագույն գործողություն՝

,

Որտեղ wi – սինապսի կշիռը, xi – նեյրոնի արժեքը, b – կոնստանտ, որը նույնպես փոփոխվում է նեյրոնային ցանցի սովորելու ընթացքում[43]։

Սինապս[խմբագրել | խմբագրել կոդը]

Սինապսը կապ է երկու նեյրոնների միջև։ Սինապսներն ունեն 1 պարամետր՝ կշիռ (weight)։ Նրա շնորհիվ մուտքային տեղեկատվությունը փոխվում է, երբ այն փոխանցվում է մի նեյրոնից մյուսը։ Ենթադրենք կան 3 նեյրոններ, որոնք տեղեկատվություն են փոխանցում հաջորդին։ Այնուհետև մենք ունենք 3 կշիռ, որոնք համապատասխանում են սինապսներից յուրաքանչյուրին։ Ավելի մեծ քաշ ունեցող սինապսի համար այդ տեղեկատվությունը գերիշխող կլինի հաջորդ նեյրոնում։ Նեյրոնային ցանցի կշիռների հավաքածուն կամ քաշի մատրիցը ամբողջ համակարգի ուղեղն է։ Այդ կշիռների շնորհիվ է, որ մուտքային տեղեկատվությունը մշակվում և վերածվում է արդյունքի[43]։

Նեյրոնային Ցանցը՝ որպես ամբողջություն[խմբագրել | խմբագրել կոդը]

Նեյրոնային ցանցը նեյրոնների հաջորդականություն է, որոնք միացված են սինապսներով։ Նեյրոնային ցանցի կառուցվածքը եկել է անմիջապես կենսաբանությունից։ Այս կառուցվածքի շնորհիվ մեքենան ձեռք է բերում տարբեր տեղեկություններ վերլուծելու ունակություն։ Նեյրոնային ցանցերը նաև ունակ են ոչ միայն վերլուծել մուտքային տեղեկատվությունը, այլև վերարտադրել այն իրենց հիշողությունից։ Այլ կերպ ասած, նեյրոնային ցանցը մարդու ուղեղի մեքենայական մեկնաբանությունն է, որը պարունակում է միլիոնավոր նեյրոններ, որոնք տեղեկատվություն են փոխանցում էլեկտրական իմպուլսների տեսքով[43]։

Հայտնի կիրառություններ[խմբագրել | խմբագրել կոդը]

Կերպարների ճանաչում և դասակարգում[խմբագրել | խմբագրել կոդը]

Որպես կերպարներ կարող են հանդես գալ տարբեր օբյեկտներ ` տեքստի սիմվոլներ , պատկերներ , երաժշտության օրինակներ և այլն։ Ուսուցման ժամանակ ցանցին առաջարկվում են կերպարների տարբեր օրինակներ ` նշելով , թե որ դասին է այն պատկանում։ Օրինակը, որպես կանոն, ներկայացվում է որպես արժեքների նախանշանների վեկտոր։ Այդ դեպքում բոլոր նախանշանների ամբողջությունը պետք է միանշանակ որոշի դասը, որին վերաբերում է օրինակը։ Եթե նախանշանները բավարար չեն, ցանցը կարող է միևնույն կերպարը վերագրել մի քանի դասերի, ինչը հավանաբար[44] : Ցանցերի ուսուցման ավարտին նրանց կարելի է ներկայացնել անհայտ վաղեմի կերպարներ և ստանալ որոշակի դասին պատկանելության վերաբերյալ պատասխան։

Նման ցանցի տրամաբանությունը բնութագրվում է նրանով, որ ելքային շերտում նեյրոնների քանակը , որպես կանոն, հավասար է որոշվող դասերի քանակին։ Այդ դեպքում նեյրոնային ցանցի ելքի և դասի միջև հաստատվում է համապատասխանություն, որն այն ներկայացնում է։ Երբ ցանցին ներկայացվում է որոշակի կերպար, ելքերից մեկում պետք է հայտնվի այն բանի նախանշանը, որ կերպարը պատկանում է այդ դասին։ Միևնույն ժամանակ այլ ելքերում պետք է լինի այն բանի նախանշանը, որ կերպարը տվյալ դասին չի պատկանում[45]։ Եթե երկու կամ ավելի ելքերում առկա է դասին պատկանելիության նախանշան, ապա համարվում է , որ ցանցը «վստահ չէ» իր պատասխանում։

Որոշումների ընդունում և կառավարում[խմբագրել | խմբագրել կոդը]

Այս խնդիրը մոտ է դասակարգման խնդրին։ Դասակարգումը ենթակա է իրավիճակին,որի բնութագրերը մուտքգրվում են նեյրոնային ցանցի մուտքում։ Ցանցի ելքում պետք է այդ պարագայում հայտնվի լուծման կանխատեսումը, որը ցանցը ընդունել է։ Այդ պարագայում որպես մուտքային ազդանշաներ կիրառվում են կառավարվող համակարգի վիճակը բնութագրող տարբեր չափանիշներ[46].

Կլաստերիզացիա[խմբագրել | խմբագրել կոդը]

Կլաստերիզացիայի ներքո հասկացվում է բազմաթիվ մուտքային ազդանշանների բաժանումը դասերի, ընդ որում այնպես, որ ոչ քանակը և ոչ էլ դասերի նախանշանները նախապես հայտնի չեն։ Ուսումնասիրումից հետո նման ցանցը կարող է որոշել, թե որ դասին է պատկանում մուտքային ազդանշանը։ Ցանցը կարող է ազդանշան տալ նաև այն մասին, որ մուտքային ազանշանը չի պատկանում առանձնացված դասերից և ոչ մեկին, ինչն էլ հանդիսանում է նոր, ուսուցանվող ընտրանքում բացակայող տվյալների նախանշանը։ Այդ պարագայում, նման ցանցը կարող է առաջացնել նոր, նախկինում անհայտ ազդանշանների դասեր ։ Դասերի միջև դասերի և ցանցի կողմից առանձնացված, առարկայական տիրույթում գոյություն ունեցող համապատասխանությունը հաստատվւոմ է մարդու կողմից։ Կլաստերիզացիան իրականացնում են օրինակ ՝ Կոխոնենի նեյրոնային ցանցը։

Նեյրոնային ցանցերը Կոխոնենի պարզ տարբերակում չեն կարող մեծ լինել, այդ իսկ պատճառով էլ դրանք բաժանում են հիպերշերտերի (հիպերսյունակների) և միջուկի (միկրոսյուների):Եթե համեմատել մարդու ուղեղի հետ, ապա զուգահեռ շերտերի իդեալական քանակը չպետք է գերազանցի 112-ը։ Այդ շերտերը իրենց հերթին կազմում են հիպերշերտեր (հիպերսյունակ), որոնցում առկա է 500 -ից 2000 միկրոսյունակ (միջուկ)։ Այդ պարագայում յուրաքանչյուր շերտ բաժանվում է բազմաթիվ հիպերսյունակների, որոնք ներտափանցում են շերտերի մեջ։ Միկրոսյունակները կոդավորվում են թվերով և միավորներով ,որոնք ելքում որպես արդյունք են ստացվում։ Եթե անհրաժեշտ է , ապա ավելորդ շերտերը կամ նեյրոնները հեռացվում են կամ ավելացվում։ Նեյրոնների կամ շերտերի քանակի որոշման համար իդեալական է սուպերհամակարգիչների կիրառումը։ Այդպիսի համակարգը թույլ է տալիս , որ նեյրոնային ցանցերը լինեն ճկուն։

Կանխատեսում[խմբագրել | խմբագրել կոդը]

Նեյրոնային ցանցերի կանխատեսման հնարավորությունները ուղղակիորեն հետևում են նրա ելքային և մուտքային տվյալների միջև թաքնված կախվածությունների ընդհանրացման և առանձնացման հնարավորություններից։ Ուսուցումից հետո ցանցը ունակ է գուշակելու որոշակի գործունեության ապագա սպասվող արժեքը` մի քանի նախկին արժեքների հիման վրա և/կամ ներկա պարագայում գոյություն ունեցող մի քանի փաստերի հիման վրա։ Պետք է նշել, որ կանխատեսումը հնարավոր է միայն այն դեպքում, երբ " նախկին փոփոխությունները ինչ-որ մակարդակում որոշում են ապագան ": Օրինակ, բաժնետոմսերի գների կանխատեսումը նախորդ շաբաթվա համեմատ կարող է հաջող հանդիսանալ (կարող է նաև անհաջող լինել), այն դեպքում, երբ վաղվա խաղատոմսի արդյունքների կանխատեսումը վերջին 50 տարվա արդյունքների հիման վրա հավանաբար ոչ մի արդյունք չի տա։

Ապրոքսիմացիա[խմբագրել | խմբագրել կոդը]

Նեյրոնային ցանցերը կարող են ապրոկսիմացնել անընդհատ ֆունկցիաներ։ Ապացուցված է ընդհանրացված ապրոկսիմացիոն թեորեմը[47]։ շնորհիվ գծային օպերցիաների և կասկադային կապերի ՝ կարելի է սկզբնական ոչ գծային էլեմենտներից ստանալ սարք, որը հաշվում է ցանկացած անընդհատ ֆունկցիա սկզբնապես տրված որոշակի ճշտությամբ։ Դա նշանակում է , որ նեյրոնի ոչ գծային բնութագիրը կարող է լինել կամայական ՝ սիգմոդիայինից մինչև կամայական փաթեթ կամ վեյվլետ, սինուսի կամ բազմանդամի։ Ոչ գծային ֆունկցիայի ընտրությունից կարող է կախված լինել կոնկրետ ցանցի բարդությունը , սակայն ցանկացած ոչ գծայնությամբ ցանցը մնում է ունիվերսալ ապրոկսիմատոր և կառուցվածքի ճիշտ ընտրության դեպքում կարելի է հստակ ապրոկսիմացնել ցանցակացած նեյրոնային ապարատի ֆունկցիայավորումը։

Տվյալների սեղմում և ասոցիատիվ հիշողություն[խմբագրել | խմբագրել կոդը]

Նեյրոցանցերի հնարավորությունը տարբեր պարամետրերի միջև փոխկապվածությունների հայտնաբերման հնարավորություն է տալիս մեծ չափերի տվյալները ավելի կոմպակտ ներկայացնել , եթե տվյալները սերտորեն կապված են միմյանց հետ։ Հակառակ պրոցեսը ` ինֆորմացիայի մասից տվյալների մուտքային հավաքածուի վերականգնումը կոչվում է ասոցիատիվ հիշողություն։ Ասոցիատիվ հիշողությունը թուլ է տալիս նաև վերկականգնելու մուտքային ազդանշան/կերպարը աղավաղված/վնասված մուտքային տվյալներից։ Հետերոասոցիատիվ հիշողության լուծումը թույլ է տալի իրականացնել հիշողություն, որը հասցեավորվում է ըստ պարունակության[46]։

Որոշումների ընդունման փուլեր[խմբագրել | խմբագրել կոդը]

  • Ուսուցման համար տվյալների հավաքագրում;
  • Տվյալների նախապատրաստում և նորմալացում;
  • Ցանցի տրամաբանության ընտրություն;
  • Ցանցի բնութագրերի էքսպերիմենտալ ընտրություն;
  • Ուսուցման պարամետրերի էքսպերիմենտալ ընտրություն;
  • Ինքնուսուցում ;
  • Ուսուցման արդյունավետության ստուգում;
  • Պարամետրերի ուղղում,վերջնական ուսուցում;
  • Ցանցի վերբալիզացիա[48] հետագա կիրառման նպատակով։

Արժե այս էտապներից որոշները մանրամասնորեն ուսումնասիրել։

Ուսուցման համար տվյալների հավաքագրում[խմբագրել | խմբագրել կոդը]

Տվյալների հավաքագրումը ցանցի ուսուցման և մշակման համար հանդիսանում է խնդրի լուծման ամենաբարդ փուլը։Տվյալների հավաքագրրումը պետք է բավարարի մի շարք չափանիշների .

  • Ներկայացվածություն — տվյալները պետք է ցույց տան առարկայական տիրույթի իրերի և առարկաների իրական վիճակը ,
  • Հակադրության բացակայություն — հակադրվող տվյալները ուսուցանվող ընտրանքում կարող են բերել ուսուցանվող ցանցի վատ որակի ,

Մուտքային տվյալները բերվում են այնպիսի տեսքի, որով դրանք կարելի է տալ ցանցի մուտքին։ Տվյալների ֆայլում յուրաքանչյուր գրառում կոչվում է "ուսուցանվող զույգ" կամ "ուսուցանվող վեկտոր" : Ուսուցանվող վեկտորը պարունակում է ցանցի յուրաքանչյուր մուտքի մեկական արժեք և կախված ուսուցման տիպից (ուսուցչի հետ կամ առանց) մեկական արժեք ցանցի յուրաքանչյուր ելքի համար։ Ցանցի ուսուցումը «հուքային» ընտրանքում, որպես կանոն, որակյալ արդյուքներ չի տալիս։ Գոյություն ունեն ցանցի «ընկալման» բարելավման մի շարք հնարավորություններ .

  • Նորմալացումը կատարվում է , երբ տարբեր մուտքերում հանդիպում են տարբեր չափողականության տվյալներ։ Օրինակ, ցանցի առաջին մուտքին տրվում են 0-ից մինչև միավոր մեծության արժեքներ , իսկ երկրորդին ՝ 100-իc մինչև 1000։ Երկրորդ մուտքում արժեքների նորմավորման բացակայության դեպքում ցանցի ելքի վրա մեծ ազդեցություն կունենա, քան արժեքը առաջին մուտքի դեպքում։ Բոլոր մուտքային և ելքային տվյալների չափողականության նորմավորումը կատարվում է միասին,
  • Քվանտավորումը կատարվում է անընդհատ մեծությունների նկատմամբ, որոնց համար առանձնացվում է դիսկրետ արժեքների հավաքածու։ Օրինակ, քվանտավորումը կիրառվում է ձայնային ազդանշանների հաճախականության տրման ժամանակ ՝ բանավոր խոսքի ճանաչման համար ,
  • Ֆիլտրացիան իրականացվում է «աղավաղված» տվյալների համար։

Բացի այդ, մեծ դեր է խաղում ինչպես մուտքային, այնպես էլ ելքային տվյալների ներկայացումը։ Ենթադրենք ցանցը ուսուցանում է տառերի ճանաչումը նկարներով և ունի մեկ թվային ելք ՝ այբուբենում տառի համարը։ Այդ դեպքում ցանցը կստանա ոչ ճշմարիտ տեղեկություն այն մասին, որ 1 և 2 համարի տառերը իրար ավելի նման են, քան 1 և 3 համարներինը , ինչը ընդհանուր առմամբ ճիշտ չէ։ Այդ դեպքում, նման իրավիճակներից խուսափելու համար, կիրառում են մեծ թվով ելքերով ցանցի տրամաբանությունը , երբ յուրաքանչյուր ելք ունի իր իմաստը։ Որքան ցանցի ելքերը շատ են, այնքան դասերի միջև հեռավորությունը շատ է և ավելի բարդ է զիջումը։

Ցանցի տրամաբանության ընտրություն[խմբագրել | խմբագրել կոդը]

Ցանցի տիպը ընտրելիս պետք է ելնել խնդրի դրվածքից և առկա ուսումնասիրվող տվյալներից։Ուսուցչի միջոցով ուսուցման դեպքում անհրաժեշտ է ընտրանքի յուրաքանչյուր էլեմենտի համար «փորձագիտական» գնահատական։ Երբեմն նման գնահատականի ստացումը մեծ տվյալների զանգվածների համար ուղղակիորեն անհնար է։ Այդպիսի դեպքերում ճիշտ ընտրություն է հանդիսանում առանց ուսուցչի ուսուցանվող ցանցի ընտրությունը, օրինակ ՝ Կոխոնենի ինքնաձևավորվող քարտը կամ Խոպֆիլդի նեյրոնային ցանցը։ Այլ խնդիրների լուծման դեպքում , ինչպիսիք են ժամանակային շարքերի կանխատեսումը , փորձագիտական գնահատականները , արդեն պարունակվում են մուտքային տվյալներում և կարող են առանձնացվել դրանց մշակման դեպքում։ Այդ դեպքում կարելի է օգտագործել բազմաշերտ պերցեպտրոնը կամ Վորդի ցանցը։

Ցանցի հատկությունների փորձագիտական ընտրություն[խմբագրել | խմբագրել կոդը]

Ընդհանուր կառուցվածքի ընտրությունից հետո կարելի է փորձագիտորեն ընտրել ցանցի պարամետրերը։ Պերցեպտրոնի տիպի ցանցերի համար դա կլինի շերտերի թիվը , թաքնված շերտերում բլոկների թիվը (Վորդի ցանցի համար), շրջանցող կապերի առկայությունը կամ բացակայությունը ,նեյրոնների փոխանցելիության գործառույթները։ Շերտերի և նեյրոնների քանակի ընտրության դեպքում պետք է ելնել նրանից, որ "ցանցի ընդհանուր հնարավորությունները այնքան մեծ են, որքան շատ են նեյրոնների միջև գումարային կապերը" : Մյուս կողմից , կապերի քանակը վերևից սահմանափակված է ուսուցանվող տվյալներում գրառումների քանակով։

Ուսուցման պարամետրերի փորձագիտական ընտրություն[խմբագրել | խմբագրել կոդը]

Կոնկրետ տրամաբանության ընտրությունից հետո անհրաժեշտ է ընտրել ուսուցանվող նեյրոնային ցանցի պարամետրերը։ Այս էտապը առավելապես կարևոր է ուսուցչի օգնությամբ ուսուցանվող ցանցերի համար։ Պարամետրերի ճիշտ ընտրությունից կախված է ոչ միայն այն, թե որքան արագ ցանցը ճիշտպատասխաններ կտա։ Օրինակ, ցածր արագությամբ ուսուցման ընտրությունը կմեծացնի գեներացիայի ժամանակը , սակայն միևնույն ժամանակ թույլ կտա խուսափելու ցանցի անդամալուծությունից։ Ուսուցման ժամանակի մեծացումը կարող է բերել ինչպես գեներացման ժամանակի մեծացմանը, այնպես էլնվազեցմանը ՝ կախված սխալների մակերեսի ձևից։ Ելնելով պարամետրերի նման հակազդեցությունից , կարելի է ենթադրել, որ նրանց արժեքները պետք է փորձագիտորեն ընտրել ՝ ղեկավարվելով ուսուցման պարամետրերով (օրինակ ՝ սխալների նվազեցում կամ ուսուցման ժամանակահատվածի կրճատում) ։

Ցանցի փաստացի ուսուցում[խմբագրել | խմբագրել կոդը]

Ուսուցման պրոցեսում ցանցը որոշակի հերթականությամբ ուսումնասիրում է ուսուցանվող ընտրանքը։ Ուսումնասիրման հերթականությունը կարող է լինել հետևողական , պատահական և այլն։ Առանց ուսուցչի ուսուցանվող որոշ ցանցեր ,օրինակ, Խոպֆիլդի ցանցերը դիտարկում են ընտրանքը մեկ անգամ։ Այլք, օրինակ՝ Կոխոնենի ցանցը,ինչպես նաև ցանցեր,որոնք ուսուցանվում են ուսուցչի միջոցով, ընտրանքը դիտարկում են բազմաթիվ անգամներ , և այդ դեպքում ընտրանքով մեկ ամբողջական անցումը կոչվում է "ուսուցման դարաշրջան" : Ուսուցչի օգնությամբ ուսուցման ժամանակ մուտքայինտվյալների հավաքածուն բաժանվումէ երկու մասի ՝ փաստացի ուսուցանվող ընտրանք և թեսթային տվյալներ , իսկ բաժանման սկզբունքը կարող է լինել կամայական։ Ուսուցանվող տվյալները տրվում են ցանցին ուսուցման համար , իսկ ստուգողները օգտագործվում են ցանցի սխալների հաշվարկման համար (ստուգող տվյալները երբեք ցանցի ուսուցման համար չեն կիրառվում) ։ Այդ պարագայում, եթե ստուգող տվյալների միջոցով սխալները նվազեցվում են, ապա իսկապես կատարվում է ընդհանրացում։ Եթե սխալը ուսուցանվող տվյալներում շարունակում է նվազել, իսկ թեսթային տվյալներում ավելանալ, դա նշանակում է , որ ցանցը դադարել է ընդհանրացում կատարել և ուղղակի «հիշում է » ուսուցանվող տվյալները։ Այդ հայտնությունը կոչվում է ցանցի վերաուսուցում կամ օվերֆիտտինգ ։ Նման դեպքերում սովորաբարուսուցումը ընդհատում են։ Ուսուցման պրոցեսում կարող են ի հայտ գալ նաև այլ խնդիրներ, ինչպիսիք են անդամալուծությունը կամ ցանցի հայտնվելը լոկալ սխալների մակերևույթ։ Հնարավոր չէ նախապես գուշակել այս կամ այն խնդրի առաջացումը և տալ դրանց լուծման ցուցումներ։

Ուսուցման համարժեքության ստուգում[խմբագրել | խմբագրել կոդը]

Նույնիսկ առաջին հայացքից հաջող ուսուցման դեպքում ցանցը ոչ միշտ է ուսուցանվում հենց նրան, ինչին ստեղծողը ձգտել է հասնել։ Հայտնի դեպք է , երբ ցանցւ ուսուցանվել է նկարներով տանկերի ճանաչման համար, սակայնավելի ուշ պարզվել է , որ բոլոր տանկերը նկարվել են միևնույն ֆոնի վրա։ Արդյունքում ցանցը «սովորել է » ճանաչել լանդշաֆտի այդ տիպը այն բանի փոխարեն, որպեսզի «սովորի» ճանաչել տանկերը[49]։ Այդ պարագայում, ցանցը «հասկանում է » ոչ այն, ինչը նրանից պահանջվում է, այլ այն , ինչը հնարավոր է ընդհանրացնել։

Դասակարգում ըստ մուտքային ինֆորմացիայի տեսակի[խմբագրել | խմբագրել կոդը]

  • Նմանատիպ նեյրոնային ցանցեր (օգտագործում են ինֆորմացիան իրական թվերի ձևով );
  • Երկակի նեյրոնային ցանցեր (մշակում են երկուական տեսքով ներկայացված ինֆորմացիան)։

Դասակարգում ըստ ուսուցման բնութագրի[խմբագրել | խմբագրել կոդը]

  • Ուսուցչի հետ ուսուցում — նեյրոնային ցանցի որոշումների ելքային տիրույթը հայտնի է ;
  • Ուսուցում առանց ուսուցչի — նեյրոնային ցանցը ձևավորում է որոշումների ելքային տիրույթը ՝ միայն մուտքային ազդեցությունների հիման վրա։ Այդպիսի ցանցերը կոչվում են ինքնակազմակերպվող ;
  • Ուսուցում կցորդով — շրջակա միջավայրի խրախուսումների և տուգանքների նշանակման համակարգ։

Դասակարգում ըստ սինապսների կարգավորումների բնութագրի[խմբագրել | խմբագրել կոդը]

  • Ֆիքսված կապերով ցանցեր (ցանցի կշռային գործակիցները ընտրվում են անմիջապես՝ ելնելով խնդրի պայմաններից , այդ դեպքում , որտեղ՝ W — ցանցի կշռային գործակիցներն են );
  • դինամիկ կապերով ցանցեր (նրանց համար ուսուցման պրոցեսը կատարվում է սինապտիկական կապերի կարգավորմամբ, այսինքն ՝ , որտեղ՝ W — ցանցի կշռային գործակիցներն են)։

Դասակարգում ըստ ազդանշանների փոխանցման ժամանակի[խմբագրել | խմբագրել կոդը]

Նեյրոնային ցանցերի շարքում ակտիվացնող ֆունկցիան կարող է կախված լինել ոչ միայն կապերի կշռային գործակիցներից , այլ նաև կապի կանալներով իմպուլսների (ազդանշանների) փոխանցման ժամանակից : Այդ պատճառով ընդհանուր տեսքով կապի ակտիվացնող (փոխանցող) ֆունկցիան էլեմենտից էլեմենտին ունի հետևյալ տեսքը . . Այդ դեպքում սինխրոն ցանց անվանում են ցանցը, որի փոխանցման ժամանակը յուրաքանչյուր կապի հավասար է կամ զրոյի , կամ ֆիքսված հաստատունի  : Ոչ սինխրոն անվանում են ցանցը, որի փոխանցման ժամանակը յուրաքանչյուր կապի համար и էլեմենտների միջև նույնպես անընդհատ է։

Դասակարգում ըստ կապերի բնութագրերի[խմբագրել | խմբագրել կոդը]

Ուղիղ տարածման ցանցեր (Feedforward)[խմբագրել | խմբագրել կոդը]

Բոլոր կապերը խստորեն ուղղված են մուտքային նեյրոններից ելքայիններին։ Նմնանատիպ ցանցերի օրինակներ են հանդիսանում Ռոզենբլատի պերցեպտրոնը, բազմաշերտ պերցեպտրոնը, Վորդի ցանցը ։

Ռեկուրենտիվ նեյրոնային ցանցեր[խմբագրել | խմբագրել կոդը]

Ելքային նեյրոնից կամ նեյրոններից ազդանշանը թաքնված շերտից մասնակիորեն փոխանցվում է ետ նեյրոնի մուտքային շերտին (ետադարձ կապ)։ Ռեկուրենտիվ Խոպֆիլդի ցանցը «ֆիլտրում է» մուտքային տվյալները, վերադառնալով կայուն վիճակի, և այդ կերպ թույլ է տալիս լուծել տվյալների սեղմման և ասոցիատիվ հիշողությանկառուցման խնդիրներ[50]։ Ռեկուրենտիվ ցանցերի մասնավոր դեպք են հանդիսանում երկուղղվածության ցանցերը։ Նման ցանցերում շերտերի միջև առկա են կապեր ինչպես մուտքային շերտից ելքայինին, այնպես էլ ընդհակառակը։ Դասական օրինակ է հանդիսանում Կոսկոյի նեյրոնային ցանցը։

Ռադիկալ-բազիսային ֆունկցիաներ[խմբագրել | խմբագրել կոդը]

Արհեստական նեյրոնային ցանցերը որպես ակտիվացնող ֆունկցիա կիրառում են ռադիկալ-բազիսային ֆունկցիաները (նման ցանցերը կարճ անվանվում են RBF-ցանցեր)։ Ռադիկալ-բազիսային ֆունկցիաների ընդհանուր տեսքը հետևյալն է .

, օրինակ,

որտեղ` — նեյրոնի մուտքային ազդանշանների վեկտոր, —ֆունկցիայի պատուհանի լայնություն , — նվազող ֆունկցիա (առավել հաճախ հավասար է զրոյի ոչ վեկտորային հատվածում )։

Ռադիկալ-բազիսային ցանցը բնութագրվում է երեք առանձնահատկություններով.

1. Միակ թաքնված շերտ

2. Միայն թաքնված շերտի նեյրոնները ունեն ոչ գծային ակտիվացնող ֆունկցիա

3. Մուտքային և տաքնված շերտի կապերի սինապտիկական կշիռները հավասար են միավորի

Ուսուցման պրոցեսը նայել գրականությունում։

Ինքնակազմակերպվող քարտեզ[խմբագրել | խմբագրել կոդը]

Նմանատիպ ցանցերը իրենցից ներկայացնում են ուսուցչի հետ ուսուցանվող մրցակցային նեյրոնային ցանց,որը իրականացնում է վիզուալիզացիայի և կլաստերիզացիայի խնդիր։ Հանդիսանում է բազմաչափ տարածության նախագծման մեթոդ ավելի փոքր չափողականություն ունեցող տարածությունում (առավել հաճախ երկչափ) , կիրառվում է նաև մոդելավորման խնդիրներում, կանխատեսման խնդիրներում և այլն։ Հանդիսանում է Կոխոնենի նեյրոնային ցանցի տեսակներից մեկը[51]։ Կոխոնենի ինքնաձևավորվող քարտեզները առաջին հերթին ծառայում են վիզուալիզացիայի և սկզբնական («բանական») տվյալների վերլուծության համար[52]։

Կոխոնենի ցանցում ազդանշանը միանգամից տարածվում է բոլոր նեյրոնների վրա , սինապսների բացակայող կշիռները ստացվում են որպես հանգույցի վիճակի կոորդինատներ և ելքային ազդանշանը ձևավորվում է «հաղթողը տանում է ամեն ինչ» սկզբունքով, այսինքն՝ ոչ զրոյական ելքային ազդանշանը ունի մուտքի օբյեկտին փոխանցվողին մոտ նեյրոն (սինապսների կշիռների իմաստով ) ։ Ուսուցման պրոցեսում սինապսների կշիռները կարգավորվում են այնպես, որ հանգուցային վանդակները «տեղավորվում են » լոկալ տվյալների տեղերում , այսինքն ՝ նկարագրում են տվյալների ամպի կլաստերային կառուցվածքը , մյուս կողմից ՝ նեյրոնների միջև կապերը համապատասխանում են նախանշանների տարածությունում հարևան կլաստերների համապատասխան կապերի հետ։

Հարմար է դիտարկել այնպիսի քարտեզներ, ինչպիսիք են հանգույցների երկչափ ցանցը , որոնք տեղակայված են բազմաչափ տարածությունում։ Սկզբնապես ինքնաձևավորվող քարտեզը իրենից ներկայացնում է հանգույցների ցանց, որոնք փոխկապված են։ Կոխոնենը դիտարկել է հանգույցների միջև կապերի երկու տարբերակ ՝ ուղղանկյուն և բազմանկյուն ցանց։ Տարբերությունը կայանում է նրանում, որ ուղղանկյուն ցանցում յուրաքանչյուր հանգույց կապված է 4 հարևաններով, իսկա բազմանկյունում՝ 6 մոտակա հանգույցներով։ Այդպիսի երկու ցանցերի համար Կոխոնենի ցանցի կառուցման պրոցեսը տարբերվում է միայն այն տեղում, որտեղ մոտենում են այդ հանգույցի հարևանները։

Ցանցի նախնական ներդրումը տվյալների ցանցում իրականացվում է կամայականորեն։ SOM_PAK հեղինակային փաթեթում առաջարկվում է տվյալների տիրույթում հանգույցների նախնական տեղակայման պատահական տարբերակներ և հանգույցների տեղակայման տարբերակը հարթությունում։ Դրանից հետո հանգույցները սկսում են տեղաբաշխվել տարածությունում համաձայն հետևյալ ալգորիթմի .

  1. Պատահականորեն ընտրվում են տվյալների կետերը .
  2. Որոշվում է մոտակա քարտեզի հանգույցը (BMU — Best Matching Unit).
  3. Այդ հանգույցը տեղակայվում է տրված քայլում x -ի ուղղությամբ։ Սակայն, այն միայնակ չի տեղակայվում, այլ իր հետ ներառում է որոշակի քանակության մոտակա հանգույցներ քարտեզի հարևանությամբ։ Բոլոր տեղաշարժվող հանգույցներից առավել ուժեղ տեղափոխվում է կենտրոնական ՝ տվյալների կետին մոտ հանգույցը,իսկ մնացածները, որքն հեռու են BMU-ից , այնքան ավելի դանդաղ են տարհանվում։ Քարտեզի կարգավորման ժամանակ առանձնացնում են 2 էտապներ ՝ կոպիտկարգավորման (fine-tuning) և ճշգրիտ կարգավորման (fine-tuning) փուլեր։ Առաջին փուլում ընտրվում են շատ հարևան արժեքներ և հանգույցների տեղաշարժը կրում է կոլեկտիվ բնույթ։ Արդյունքում քարտեզը « ուղղվում է » և կոպիտ կերպով արտապատկերում է տվյալների կառուցվածքը, իակ ճշգրիտ կարգավորման փուլում հարևանության շառավիղը 1-2 է և կարգավորվում են արդեն հանգույցների անհատական դիրքերը։ Բացի այդ, տեղաշարժման մեծությունը ժամանակի ընթացքում համամասնորեն նվազում է , այսինքն ՝ ուսուցման առաջին փուլում ավելի մեծ է , իսկ ավարտին հասնելիս հավասարվում է զրոյի։
  4. Ալգորիթմը որոշակի ժամանակահատվածի ընթացքում կրկնվում է (իհարկե, մի շարք քայլեր, կարող են տարբեր լինել՝ կախված առաջադրանքից)։

Հայտնի ցանցերի տիպեր[խմբագրել | խմբագրել կոդը]

Տարբերությունը Ֆոն Նեյմանի ճարտարապետությամբ մեքենաներից[խմբագրել | խմբագրել կոդը]

Հաշվողական համակարգերը, հիմնված արհեստական նեյրոնային ցանցերի վրա, օժտված են մի շարք որակներով , որոնք բացակայում են Ֆոն Նեյմանի ճարտարապետությամբ մեքենաներում (սակայն բնորոշ են մարդկային ուղեղին).

  • Մասսայական զուգահեռականություն;
  • Ինֆորմացիայի և հաշվարկների բաշխված ներկայացում;
  • Ընդհանրացման և ուսուցման ունակություն;
  • Արդյունավետություն;
  • Ինֆորմացիայի բովանդակային մշակման կարողություն;
  • Սխալների նկատմամբ տոլերանտություն;
  • Ցածր էներգատարություն։

Հավելվածների օրինակներ[խմբագրել | խմբագրել կոդը]

Ֆինանսական ժամանակային շարքերի կանխատեսում[խմբագրել | խմբագրել կոդը]

Մուտքայինտվյալներ - տարվա ընթացքում աճուրդի կուրսը։ Խնդիրն է որոշել վաղվա կուրսը։ Կատարվում է հետևյալ վերափոխումը ՝ կառուցվում է շարք այսօրվա, երեկվա և նախորդ օրվա կուրսերով։ Հաջորդ շարքում տեղակայվում են նախորդից մեկ օր առաջվա տվյալները և այդպես շարունակ։ Ստացված հավաքածուում ուսումնասիրվում է ցանց 3 մուտքով և 1 ելքով ՝ վաղվա օրվա կուրսը։ Մուտքերը կուրսերն են ՝ 1 օր առաջ, 2 օր առաջ և 3 օր առաջ։ Ուսումնասիրվող ցանցի մուտքին տալիս ենք մուտքային տվյալների արժեքները , իսկ ելքում ստանում ենք վաղվա կուրսը։ Դժվար չէ նկատել ,որ այս դեպքում ցանցը ուղղակիորեն ելքագրում է մյուս երեք պարամետրերից կախված ելք։ Եթե ցանկալի է հաշվի առնել նաև ինչ-որ այլ պարամետր (օրինակ ինչ-որ ինդեքս), ապա այն պետք է մուտքագրել որպես մուտքային պարամետր, ուսումնասիրել այն և ստանալ նոր արդյունք։ Առավել ճշգրիտ ուսուցման համար անհրաժեշտ է կիրառել [Սխալների հետադարձ տարածման մեթոդը,որպես առավել կանխատեսելի և ոչ բարդ իրականացվելի մեթոդ։

Հոգեդիագնոստիկա[խմբագրել | խմբագրել կոդը]

Մ. Գ. Դոռեռի և իր համահեղինակների աշխատանքները նվիրված են նեյրոնային ցանցերի փորձագիտական համակարգերի հոգեբանական ինտուիցիայի զարգացման հնարավորությունների հարցերի քննարկմանը[54][55]։ Ստացված արդյունքները հնարավորություն են տալիս բացահայտելու նեյրոնային ցանցերի ինտուիցիայի մեխանիզմը, որը նրանց կողմից ցուցաբերվում է հոգեվերլուծական խնդիրների լուծման ժամանակ։ Համակարգչային մեթոդների կողքին ստեղծվել է ոչ ստանդարտ ՛՛ինտուիտիվ՛՛ մեթոդ։

Հեմոինֆորմատիկա[խմբագրել | խմբագրել կոդը]

Նեյրոնային ցանցերը լայնորեն կիրառվում են քիմիական և բիոքիմիական հետազոտություններում[56] Ներկայումս նեյրոնային ցանցերը հանդիսանում են խեմոինֆորմատիկայի ամենատարծված մեթոդներից մեկը для գույքային հարաբերությունների քանակական կապերի որոնման համար[57][58],որոնց շնորհիվ ակտիվորեն կիրառվում են որպես ֆիզիկա- քիմիական և բիոլոգիական ակտիվությունների կանխատեսման համար, ինչպես նաև նոր դեղորայքային պարագաների մշակման համար։

Նեյրոկառավարում[խմբագրել | խմբագրել կոդը]

Նեյրոնային ցանցերը հաջող կերպով ընդունվում են կառավարման համակարգերի սինթեզի համար դինամիկ օբյեկտներով[59][60]։ Նեյրոցանցերը օժտված են ունիկալ հատկությունների շարքով, որոնք դրանք ավելի հզոր գործիք են դարձնում ղեկավարման համակարգերի ստեղծման համար։ Դրանք են ՝ օրինակների վրա ուսուցման հնարավորությունը և տվյալների ընդհանրացում , կառավարման օբյեկտի հատկություններին և արտաքին միջավայրի փոփոխություններին հարմարվելու ունակությունը , ոչ գծային կարգավորիչների սինթեզին հարմարվելու ունակություն, վնասված տարերրի բարձր դիմադրողականությունը ի սկզբանե ներդրված է երկակի նեյրոցանցային կառուցվածքում։

Արտաքին հղումներ[խմբագրել | խմբագրել կոդը]

Գրականություն[խմբագրել | խմբագրել կոդը]

Ծանոթագրություններ[խմբագրել | խմբագրել կոդը]

  1. Hardesty, Larry (2017 թ․ ապրիլի 14). «Explained: Neural networks». MIT News Office. Վերցված է 2022 թ․ հունիսի 2-ին.
  2. Yang, Z.R.; Yang, Z. (2014). Comprehensive Biomedical Physics. Karolinska Institute, Stockholm, Sweden: Elsevier. էջ 1. ISBN 978-0-444-53633-4. Արխիվացված օրիգինալից 2022 թ․ հուլիսի 28-ին. Վերցված է 2022 թ․ հուլիսի 28-ին.
  3. Bishop, Christopher M. (2006 թ․ օգոստոսի 17). Pattern Recognition and Machine Learning (English). New York: Springer. ISBN 978-0-387-31073-2.{{cite book}}: CS1 սպաս․ չճանաչված լեզու (link)
  4. 4,0 4,1 Vapnik, Vladimir N.; Vapnik, Vladimir Naumovich (1998). The nature of statistical learning theory (Corrected 2nd print. ed.). New York Berlin Heidelberg: Springer. ISBN 978-0-387-94559-0.
  5. Ian Goodfellow and Yoshua Bengio and Aaron Courville (2016). Deep Learning. MIT Press. Արխիվացված օրիգինալից 2016 թ․ ապրիլի 16-ին. Վերցված է 2016 թ․ հունիսի 1-ին.
  6. Mansfield Merriman, "A List of Writings Relating to the Method of Least Squares"
  7. Stigler, Stephen M. (1981). «Gauss and the Invention of Least Squares». Ann. Stat. 9 (3): 465–474. doi:10.1214/aos/1176345451.
  8. Bretscher, Otto (1995). Linear Algebra With Applications (3rd ed.). Upper Saddle River, NJ: Prentice Hall.
  9. Schmidhuber, Juergen (2022). «Annotated History of Modern AI and Deep Learning». arXiv:2212.11279 [cs.NE].
  10. Stigler, Stephen M. (1986). The History of Statistics: The Measurement of Uncertainty before 1900. Cambridge: Harvard. ISBN 0-674-40340-1.
  11. McCulloch, Warren; Walter Pitts (1943). «A Logical Calculus of Ideas Immanent in Nervous Activity». Bulletin of Mathematical Biophysics. 5 (4): 115–133. doi:10.1007/BF02478259.
  12. Kleene, S.C. (1956). «Representation of Events in Nerve Nets and Finite Automata». Annals of Mathematics Studies. No. 34. Princeton University Press. էջեր 3–41. Վերցված է 2017 թ․ հունիսի 17-ին.
  13. Hebb, Donald (1949). The Organization of Behavior. New York: Wiley. ISBN 978-1-135-63190-1.
  14. Farley, B.G.; W.A. Clark (1954). «Simulation of Self-Organizing Systems by Digital Computer». IRE Transactions on Information Theory. 4 (4): 76–84. doi:10.1109/TIT.1954.1057468.
  15. Rochester, N.; J.H. Holland, L.H. Habit and W.L. Duda (1956). «Tests on a cell assembly theory of the action of the brain, using a large digital computer». IRE Transactions on Information Theory. 2 (3): 80–93. doi:10.1109/TIT.1956.1056810.
  16. Haykin (2008) Neural Networks and Learning Machines, 3rd edition
  17. Rosenblatt, F. (1958). «The Perceptron: A Probabilistic Model For Information Storage And Organization in the Brain». Psychological Review. 65 (6): 386–408. CiteSeerX 10.1.1.588.3775. doi:10.1037/h0042519. PMID 13602029. S2CID 12781225.
  18. Werbos, P.J. (1975). Beyond Regression: New Tools for Prediction and Analysis in the Behavioral Sciences.
  19. Rosenblatt, Frank (1957). «The Perceptron—a perceiving and recognizing automaton». Report 85-460-1. Cornell Aeronautical Laboratory.
  20. Olazaran, Mikel (1996). «A Sociological Study of the Official History of the Perceptrons Controversy». Social Studies of Science. 26 (3): 611–659. doi:10.1177/030631296026003005. JSTOR 285702. S2CID 16786738.
  21. 21,0 21,1 Russel, Stuart; Norvig, Peter (2010). Artificial Intelligence A Modern Approach (PDF) (English) (3rd ed.). United States of America: Pearson Education. էջեր 16–28. ISBN 978-0-13-604259-4.{{cite book}}: CS1 սպաս․ չճանաչված լեզու (link)
  22. Minsky, Marvin; Papert, Seymour (1969). Perceptrons: An Introduction to Computational Geometry. MIT Press. ISBN 978-0-262-63022-1.
  23. 23,0 23,1 Russell, Stuart J.; Norvig, Peter (2021). Artificial intelligence: a modern approach. Pearson Series in Artificial Intelligence. Ming-wei Chang, Jacob Devlin, Anca Dragan, David Forsyth, Ian Goodfellow, Jitendra Malik, Vikash Mansinghka, Judea Pearl, Michael J. Wooldridge (4th ed.). Hoboken, NJ: Pearson. ISBN 978-0-13-461099-3.
  24. Giacaglia, G.P. (2022 թ․ նոյեմբերի 2). Making Things Think. Holloway. ISBN 978-1-952120-41-1. Վերցված է 2023 թ․ դեկտեմբերի 29-ին.
  25. Schmidhuber, J. (2015). «Deep Learning in Neural Networks: An Overview». Neural Networks. 61: 85–117. arXiv:1404.7828. doi:10.1016/j.neunet.2014.09.003. PMID 25462637. S2CID 11715509.
  26. Ivakhnenko, A. G. (1973). Cybernetic Predicting Devices. CCM Information Corporation.
  27. Ivakhnenko, A. G.; Lapa, Valentin Grigorʹevich (1967). Cybernetics and forecasting techniques. American Elsevier Pub. Co.
  28. Robbins, H.; Monro, S. (1951). «A Stochastic Approximation Method». The Annals of Mathematical Statistics. 22 (3): 400. doi:10.1214/aoms/1177729586.
  29. Amari, Shun'ichi (1967). «A theory of adaptive pattern classifier». IEEE Transactions. EC (16): 279–307.
  30. Schmidhuber, Juergen (2022). «Annotated History of Modern AI and Deep Learning». arXiv:2212.11279 [cs.NE].
  31. 31,0 31,1 Kohonen, Teuvo; Honkela, Timo (2007). «Kohonen Network». Scholarpedia. 2 (1): 1568. Bibcode:2007SchpJ...2.1568K. doi:10.4249/scholarpedia.1568.
  32. Kohonen, Teuvo (1982). «Self-Organized Formation of Topologically Correct Feature Maps». Biological Cybernetics. 43 (1): 59–69. doi:10.1007/bf00337288. S2CID 206775459.
  33. Von der Malsburg, C (1973). «Self-organization of orientation sensitive cells in the striate cortex». Kybernetik. 14 (2): 85–100. doi:10.1007/bf00288907. PMID 4786750. S2CID 3351573.
  34. Քաղվածելու սխալ՝ Սխալ <ref> պիտակ՝ «Մակ-Կալլոկ» անվանումով ref-երը տեքստ չեն պարունակում:
  35. Pattern Recognition and Adaptive Control. BERNARD WIDROW
  36. Ուիդրոու Վ., Ստիրնս Ս.,Ազդանշանների արդյունավետ կառավարում։ Ռադիո և կապ, 1989. — 440 էջ
  37. Պետրով Ա.Պ. Պերցեպտրոնի հնարավորությունների մասին // АН СССР հրատարակություն, Տեխնիկական կիբերնետիկա. — № 6.
  38. Բոնգարդ Մ.Մ., Ճանաչողության խնդիրներ, Մ., «ֆիզմաթգիզ»։
  39. Werbos P. J., Beyond regression: New tools for prediction and analysis in the behavioral sciences. Ph.D. thesis, Harvard University, Cambridge, MA, 1974.
  40. Գալուշկին Ա. Ի. Կերպարների ճանաչման բազմաշերտ համակարգի սինթեզ — Մ.: «Էներգիա», 1974.
  41. Rumelhart D.E., Hinton G.E., Williams R.J., Learning Internal Representations by Error Propagation. In: Parallel Distributed Processing, vol. 1, pp. 318—362. Cambridge, MA, MIT Press. 1986.
  42. Բարցև Ս. Ի., Օխոնին Վ. Ա. Ինֆորմացիայի մշակման արդյունավետ ցանցեր. Կրասնոյարսկ։ АН СССР, 1986. Препринт N 59Б. — 20 с.
  43. 43,0 43,1 43,2 Գ․ Գևորգյան, Վ․ Հովհաննիսյան (2022 թ․ մայիսի 20), Նեյրոնային Ցանցեր, Վերցված է 2022 թ․ մայիսի 20-ին
  44. BaseGroup Labs — Նեյրոցանցերի պրակտիկ կիրառումն է դասակարգման խնդիրներում
  45. Կոդավորման նման տեսքը հաճախ անվանում են կոդ «1-ը N-ից»
  46. 46,0 46,1 Բաց համակարգեր — նեյրոցանցերում ներդնումը
  47. Գորբան Ա.Ն., Ընդհանրացված ապրոկսիմացիոն թեորեմ և նեյրոնային ցանցերի հաշվողական հնարավորություններ Արխիվացված 2012-01-27 Wayback Machine, Հաշվողական մաթեմատիկայի սիբիրյան ամսագիր, 1998. Т.1, № 1. С. 12-24.
  48. Միրկես Ե. Մ.,Տրամաբանական թափանցիկ նեյրոնային ցանցեր և ակնհայտ տվյալների գիտելիքների ստեղծում , գրքում։ Նեյրոինֆորմատիկա / Ա. Ն. Գորբան, Վ. Լ. Դունին-Բորկովսկի, Ա. Ն. Կիրդին և այլք — Նովոսիբիրսկ։ Գիտություն. Սիբիրյան ընկերություն РАН, 1998. — 296 с ISBN 5-02-031410-2
  49. Այդ պատմության հիշատակումը «Հանրահայտ մեխանիկա» ամսագրում
  50. INTUIT.ru — Ռեկուրենտիվ ցանցերը ինչպես ասոցիատիվ հիշող սարքեր
  51. Kohonen, T. (1989/1997/2001), Self-Organizing Maps, Berlin — New York: Springer-Verlag. First edition 1989, second edition 1997, third extended edition 2001, ISBN 0-387-51387-6, ISBN 3-540-67921-9
  52. Зиновьев А. Ю., Визуализация многомерных данных (Изд. Красноярского государственного технического университета), Красноярск էջ 180։
  53. Martinetz, T.M., Berkovich, S.G., and Schulten K.J., Neural-gas network for vector quantization and its application to time-series prediction. IEEE Transactions on Neural Networks, 4 (1993) #4, 558—569. На сайте PCA
  54. Gorban A.N., Rossiyev D.A., Dorrer M.G., MultiNeuron — Neural Networks Simulator For Medical, Physiological, and Psychological Applications, Wcnn’95, Washington, D.C.: World Congress on Neural Networks 1995 International Neural Network Society Annual Meeting : Renaissance Hotel, Washington, D.C., USA, July 17-21, 1995.
  55. Доррер М. Г., Արհեստական նեյրոնային ցանցերի հոգեբանական ինտուիցիա, Դիսս. … 1998: Օնլայն այլ պատճեններ. [1], [2]
  56. Բասկի Ի. Ի. , Պլյուկլին Վ. Ա. , Զեֆիրով Ն. Ս., Արհեստական նեյրոնային ցանցերի կիրառումը քիմիական և բիոքիմիական հետազոտություններում, Քիմիա 1999. Т.40. № 5.
  57. Нейронные сети как метод поиска зависимостей структура – свойство органических соединений // Успехи химии. — № 7.
  58. Баскин И. И., Палюлин В. А., Зефиров Н. С. Многослойные персептроны в исследовании зависимостей սահամանափակ կապերի «գույքային հարաբերություններ».
  59. Սիգերու Օմատու, արզուկի Խալիդ, Ռուբիա Յուսոֆ, Նեյրոկառավարում և նրա հավելվածները (Neuro-Control and its Applications) (2-րդ), Մ., «ՌԱՀԸ», էջ 272, ISBN ISBN 5-93108-006-6։
  60. Ա. Ն. Չերնոդուբ, Դ. Ա. Ձյուբա Նեյրոկառավարման մեթոդների ներկայացում // Ծրագրավորման խնդիրներ. — 2011. — No 2. — Էջ 79-94.