Dirbtinis intelektas keičia pasaulį ir tuo pačiu metu išranda visiškai naują kalbą, apibūdinančią, kaip tai daro. Praleidus penkias minutes skaitant apie DI, susidursite su LLM, RAG, RLHF ir daugybe kitų terminų, dėl kurių net labai protingi žmonės technologijų pasaulyje gali jaustis nesaugūs. Šis žodynėlis yra mūsų bandymas tai ištaisyti. Mes jį reguliariai atnaujiname, nes sritis vystosi, todėl laikykite jį gyvu dokumentu, panašiu į DI sistemas, kurias jis apibūdina.
Dirbtinis bendrasis intelektas, arba AGI, yra miglotas terminas. Tačiau paprastai jis reiškia DI, kuris yra pajėgesnis už vidutinį žmogų atliekant daugelį, jei ne daugumą, užduočių. „OpenAI“ generalinis direktorius Samas Altmanas kažkada apibūdino AGI kaip „vidutinio žmogaus ekvivalentą, kurį galėtumėte pasamdyti kaip bendradarbį“. Tuo tarpu „OpenAI“ chartijoje AGI apibrėžiamas kaip „labai autonominės sistemos, kurios atlieka geriau nei žmonės daugumą ekonomiškai vertingo darbo“. „Google DeepMind“ supratimas šiek tiek skiriasi nuo šių dviejų apibrėžimų; laboratorija AGI laiko „DI, kuris bent jau toks pat pajėgus kaip žmonės atlikti daugumą kognityvinių užduočių“. Susimaišėte? Nesijaudinkite – taip pat ir DI tyrimų priešakyje esantys ekspertai.
DI agentas reiškia įrankį, kuris naudoja DI technologijas tam, kad atliktų daugybę užduočių jūsų vardu – daugiau nei galėtų padaryti paprastesnis DI pokalbių robotas – pavyzdžiui, apmokėti išlaidas, užsakyti bilietus ar staliuką restorane arba net rašyti ir prižiūrėti kodą. Tačiau, kaip jau anksčiau paaiškinome, šioje besiformuojančioje erdvėje yra daug judančių dalių, todėl „DI agentas“ skirtingiems žmonėms gali reikšti skirtingus dalykus. Infrastruktūra taip pat vis dar kuriama, kad būtų įgyvendintos numatytos galimybės. Tačiau pagrindinė koncepcija apima autonominę sistemą, kuri gali pasinaudoti keliomis DI sistemomis, kad atliktų daugiaetapes užduotis.
Įsivaizduokite API galinius taškus kaip „mygtukus“ programinės įrangos gale, kuriuos kitos programos gali paspausti, kad ji ką nors padarytų. Kūrėjai naudoja šias sąsajas kurdami integracijas – pavyzdžiui, leisdami vienai programai ištraukti duomenis iš kitos arba leisdami DI agentui tiesiogiai valdyti trečiųjų šalių paslaugas be žmogaus, rankiniu būdu valdančio kiekvieną sąsają. Dauguma išmaniųjų namų įrenginių ir prijungtų platformų turi šiuos paslėptus mygtukus, net jei paprasti vartotojai jų niekada nemato ar su jais nesąveikauja. DI agentams tampant vis pajėgesniems, jie vis dažniau patys randa ir naudoja šiuos galinius taškus, atverdami galingas – ir kartais netikėtas – automatizavimo galimybes.
Atsakius į paprastą klausimą, žmogaus smegenys gali atsakyti net per daug apie tai negalvodamos – pavyzdžiui, „kuris gyvūnas aukštesnis, žirafa ar katė?“. Tačiau daugeliu atvejų dažnai reikia rašiklio ir popieriaus, kad gautumėte teisingą atsakymą, nes yra tarpinių žingsnių. Pavyzdžiui, jei ūkininkas turi vištų ir karvių, ir kartu jos turi 40 galvų ir 120 kojų, jums gali prireikti užrašyti paprastą lygtį, kad gautumėte atsakymą (20 vištų ir 20 karvių).
DI kontekste grandininis didelių kalbos modelių argumentavimas reiškia problemos suskaidymą į mažesnius, tarpinius žingsnius, siekiant pagerinti galutinio rezultato kokybę. Atsakymą paprastai gaunama ilgiau, tačiau atsakymas greičiausiai bus teisingas, ypač logikos ar kodavimo kontekste. Argumentavimo modeliai yra sukurti iš tradicinių didelių kalbos modelių ir optimizuoti, kad mintys būtų grandininės, nes sustiprinamas mokymasis.
(Žiūrėkite: Didelis kalbos modelis)
San Franciskas, CA
|
2026 m. spalio 13–15 d.
Tai yra konkretesnė sąvoka nei „DI agentas“, o tai reiškia programą, kuri gali savarankiškai, žingsnis po žingsnio, imtis veiksmų, kad įvykdytų tikslą. Kodavimo agentas yra specializuota versija, taikoma programinės įrangos kūrimui. Užuot tiesiog pasiūlius kodą, kurį žmogus galėtų peržiūrėti ir įklijuoti, kodavimo agentas gali rašyti, testuoti ir derinti kodą autonomiškai, tvarkydamas tokį iteracinį, bandymų ir klaidų darbą, kuris paprastai užima kūrėjo dieną. Šie agentai gali veikti visose kodo bazėse, aptikti klaidas, atlikti testus ir išsiųsti pataisymus minimaliai prižiūrint žmogui. Pagalvokite apie tai kaip apie labai greito stažuotojo pasamdymą, kuris niekada nemiega ir nepraranda susikaupimo – nors, kaip ir bet kurio stažuotojo atveju, žmogus vis tiek turi peržiūrėti darbą.
Nors tai šiek tiek daugiareikšmis terminas, skaičiavimas paprastai reiškia gyvybiškai svarbią skaičiavimo galią, leidžiančią DI modeliams veikti. Šis apdorojimo tipas maitina DI pramonę, suteikdamas jai galimybę apmokyti ir dislokuoti savo galingus modelius. Šis terminas dažnai yra aparatūros, kuri suteikia skaičiavimo galią, trumpinys – tokie dalykai kaip GPU, CPU, TPU ir kitos infrastruktūros formos, kurios sudaro šiuolaikinės DI pramonės pagrindą.
Savaime tobulėjančio mašininio mokymosi poaibis, kuriame DI algoritmai yra sukurti su daugiasluoksne, dirbtine neuronų tinklo (ANN) struktūra. Tai leidžia jiems atlikti sudėtingesnes koreliacijas, palyginti su paprastesnėmis mašininio mokymosi pagrindu sukurtomis sistemomis, tokiomis kaip linijiniai modeliai arba sprendimų medžiai. Giluminio mokymosi algoritmų struktūra semiasi įkvėpimo iš žmogaus smegenų tarpusavyje susijusių neuronų kelių.
Giluminio mokymosi DI modeliai gali patys nustatyti svarbias duomenų charakteristikas, nereikalaujant, kad žmogus inžinieriai apibrėžtų šias savybes. Struktūra taip pat palaiko algoritmus, kurie gali mokytis iš klaidų ir, pakartojimo bei koregavimo proceso metu, pagerinti savo rezultatus. Tačiau giluminio mokymosi sistemoms reikia daug duomenų taškų, kad būtų pasiekti geri rezultatai (milijonai ar daugiau). Jų mokymas taip pat paprastai trunka ilgiau, palyginti su paprastesniais mašininio mokymosi algoritmais, todėl kūrimo sąnaudos paprastai būna didesnės.
(Žiūrėkite: Neuronų tinklas)
Difuzija yra technika, esanti daugelio meno, muzikos ir teksto generavimo DI modelių pagrinduose. Įkvėptos fizikos, difuzijos sistemos lėtai „sunaikina“ duomenų struktūrą – pavyzdžiui, nuotraukas, dainas ir pan. – pridėdamos triukšmą, kol nieko nelieka. Fizikoje difuzija yra savaiminė ir negrįžtama – kavoje ištirpęs cukrus negali būti grąžintas į kubo formą. Tačiau DI difuzijos sistemos siekia išmokti tarsi „atvirkštinio difuzijos“ procesą, kad atkurtų sunaikintus duomenis, įgydamos galimybę atkurti duomenis iš triukšmo.
Distiliavimas yra metodas, naudojamas žinioms išgauti iš didelio DI modelio naudojant „mokytojo-mokinio“ modelį. Kūrėjai siunčia užklausas į mokytojo modelį ir įrašo išvestis. Atsakymai kartais lyginami su duomenų rinkiniu, siekiant pamatyti, kokie jie yra tikslūs. Tada šios išvestis naudojamos mokinio modeliui apmokyti, kuris yra apmokytas apytiksliai įvertinti mokytojo elgesį.
Distiliavimas gali būti naudojamas norint sukurti mažesnį, efektyvesnį modelį, pagrįstą didesniu modeliu su minimaliu distiliavimo nuostoliu. Tikėtina, kad taip „OpenAI“ sukūrė „GPT-4 Turbo“, greitesnę „GPT-4“ versiją.
Nors visos DI įmonės naudoja distiliavimą viduje, kai kurios DI įmonės galėjo jį naudoti norėdamos pasivyti pažangiausius modelius. Distiliavimas iš konkurento paprastai pažeidžia DI API ir pokalbių asistentų paslaugų teikimo sąlygas.
Tai reiškia tolesnį DI modelio mokymą siekiant optimizuoti našumą konkretesnei užduočiai ar sričiai nei anksčiau buvo pagrindinis jo mokymo taškas – paprastai įvedant naujus, specializuotus (t.y., į užduotis orientuotus) duomenis.
Daugelis DI startuolių naudoja didelius kalbos modelius kaip atspirties tašką kuriant komercinį produktą, tačiau siekia padidinti naudingumą tiksliniam sektoriui ar užduočiai papildydami ankstesnius mokymo ciklus tikslinimu, pagrįstu jų specifinėmis žiniomis ir patirtimi.
(Žiūrėkite: Didelis kalbos modelis (LLM))
GAN, arba generatyvus priešiškas tinklas, yra mašininio mokymosi sistema, kuri palaiko kai kuriuos svarbius generatyvaus DI pokyčius, kai reikia generuoti realistiškus duomenis, įskaitant (bet ne tik) „deepfake“ įrankius. GAN naudoja neuronų tinklų porą, iš kurių vienas remiasi savo mokymo duomenimis, kad sugeneruotų išvestį, kuri perduodama kitam modeliui įvertinti.
Iš esmės abi modeliai yra užprogramuotos taip, kad bandytų viena kitą pranokti. Generatorius bando, kad jo išvestis praeitų diskriminatorių, o diskriminatorius stengiasi pastebėti dirbtinai sugeneruotus duomenis. Šis struktūruotas konkursas gali optimizuoti DI išvestis, kad jie būtų realistiškesni be papildomo žmogaus įsikišimo. Nors GAN geriausiai tinka siauresnėms programoms (pvz., realistiškoms nuotraukoms ar vaizdo įrašams kurti), o ne bendrosios paskirties DI.
Haliucinacijos yra DI pramonės pageidaujamas terminas, apibūdinantis DI modelius, kurie ką nors sugalvoja – tiesiogine prasme generuoja informaciją, kuri yra neteisinga. Akivaizdu, kad tai yra didžiulė problema DI kokybei.
Haliucinacijos sukuria GenAI išvestis, kuri gali būti klaidinanti ir netgi gali sukelti realaus gyvenimo riziką – su potencialiai pavojingomis pasekmėmis (pagalvokite apie sveikatos užklausą, kuri grąžina žalingus medicinos patarimus).
Manoma, kad AIs informacijos gamybos problema kyla dėl spragų mokymo duomenyse. Haliucinacijos prisideda prie didesnių specializuotų ir (arba) vertikalių DI modelių – t. y. konkrečios srities DI, kuriems reikia siauresnės patirties, siekiant sumažinti žinių spragų tikimybę ir sumažinti dezinformacijos riziką.
Išvada yra DI modelio paleidimo procesas. Tai modelio paleidimas, kad jis galėtų prognozuoti arba daryti išvadas iš anksčiau matytų duomenų. Norint būti aiškiam, išvada negali įvykti be mokymo; modelis turi išmokti duomenų rinkinio modelius, kad galėtų efektyviai ekstrapoliuoti iš šių mokymo duomenų.
Daugelis aparatūros tipų gali atlikti išvadą, pradedant nuo išmaniųjų telefonų procesorių iki galingų GPU iki specialiai sukurtų DI greitintuvų. Tačiau ne visi jie gali vienodai gerai paleisti modelius. Labai dideli modeliai užtruktų amžius, kad galėtų prognozuoti, tarkime, nešiojamąjį kompiuterį, palyginti su debesies serveriu su aukščiausios klasės DI lustais.
(Žiūrėkite: Mokymas)
Dideli kalbos modeliai arba LLM yra DI modeliai, naudojami populiarių DI asistentų, tokių kaip „ChatGPT“, „Claude“, „Google“ „Gemini“, „Meta“ „AI Llama“, „Microsoft Copilot“ arba „Mistral“ „Le Chat“. Kalbėdamiesi su DI asistentu, jūs bendraujate su dideliu kalbos modeliu, kuris apdoroja jūsų užklausą tiesiogiai arba naudodamas skirtingus turimus įrankius, tokius kaip naršymas internete arba kodo interpretatoriai.
LLM yra gilūs neuroniniai tinklai, sudaryti iš milijardų skaitinių parametrų (arba svorių, žr. žemiau), kurie mokosi ryšių tarp žodžių ir frazių ir sukuria kalbos vaizdą, tarsi daugiamatį žodžių žemėlapį.
Šie modeliai sukuriami užkodavus modelius, kuriuos jie randa milijarduose knygų, straipsnių ir nuorašų. Kai pateikiate LLM, modelis generuoja labiausiai tikėtiną modelį, atitinkantį raginimą.
(Žiūrėkite: Neuronų tinklas)
Atminties talpykla reiškia svarbų procesą, kuris padidina išvadą (o tai yra procesas, kurio metu DI veikia, kad sugeneruotų atsakymą į vartotojo užklausą). Iš esmės, talpykla yra optimizavimo technika, skirta padaryti išvadą efektyvesniu. Akivaizdu, kad DI varomas didelio oktaninio skaičiaus matematiniais skaičiavimais, ir kiekvieną kartą, kai atliekami tie skaičiavimai, jie sunaudoja daugiau energijos. Talpykla skirta sumažinti skaičiavimų, kuriuos modelis gali turėti atlikti, skaičių, išsaugant konkrečius skaičiavimus būsimoms vartotojų užklausoms ir operacijoms. Yra įvairių rūšių atminties talpyklos, nors viena iš labiau žinomų yra KV (arba rakto vertė) talpykla. KV talpykla veikia transformatoriais pagrįstuose modeliuose ir padidina efektyvumą, pagreitina rezultatus, sumažindama laiką (ir algoritminį darbą), kurio reikia atsakymams į vartotojų klausimus generuoti.
(Žiūrėkite: Išvada)
Neuronų tinklas reiškia daugiasluoksnę algoritminę struktūrą, kuri palaiko giluminį mokymąsi – ir, plačiau, visą generatyvaus DI įrankių bumą po to, kai atsirado dideli kalbos modeliai.
Nors idėja pasisemti įkvėpimo iš tankiai tarpusavyje susijusių žmogaus smegenų kelių kaip duomenų apdorojimo algoritmų projektavimo struktūros siekia dar 1940-uosius metus, būtent daug vėlesnis grafinio apdorojimo aparatūros (GPU) pakilimas – per vaizdo žaidimų pramonę – tikrai atskleidė šios teorijos galią. Šie lustai pasirodė tinkami mokymo algoritmams su daug daugiau sluoksnių nei buvo įmanoma ankstesnėse epochose – todėl neuroniniais tinklais pagrįstos DI sistemos pasiekė daug geresnį našumą daugelyje sričių, įskaitant balso atpažinimą, autonominę navigaciją ir vaistų atradimą.
(Žiūrėkite: Didelis kalbos modelis (LLM))
Atviras šaltinis reiškia programinę įrangą – arba vis dažniau DI modelius – kurios pagrindinis kodas yra viešai prieinamas bet kam naudoti, patikrinti ar modifikuoti. DI pasaulyje „Meta“ „Llama“ modelių šeima yra ryškus pavyzdys; „Linux“ yra garsus istorinis lygiagretis operacinėse sistemose. Atvirojo kodo metodai leidžia tyrėjams, kūrėjams ir įmonėms visame pasaulyje remtis vieni kitų darbu, pagreitindami pažangą ir įgalindami nepriklausomus saugos auditus, kurių uždaros sistemos negali lengvai pateikti. Uždaras šaltinis reiškia, kad kodas yra privatus – galite naudoti produktą, bet nematyti, kaip jis veikia, kaip yra su „OpenAI“ GPT modeliais – tai skirtumas, kuris tapo vienu iš pagrindinių debatų DI pramonėje.
Paralelizavimas reiškia daugelio dalykų darymą tuo pačiu metu, o ne vienas po kito – pavyzdžiui, kai 10 darbuotojų vienu metu dirba su skirtingomis projekto dalimis, o ne vienas darbuotojas viską daro nuosekliai. DI srityje paralelizavimas yra esminis tiek mokymui, tiek išvadai: šiuolaikiniai GPU yra specialiai sukurti atlikti tūkstančius skaičiavimų lygiagrečiai, o tai yra didelė priežastis, kodėl jie tapo pramonės aparatūros pagrindu. DI sistemoms tampant vis sudėtingesnėms, o modeliams didėjant, galimybė paraleliuoti darbą per daugybę lustų ir daugybę mašinų tapo vienu iš svarbiausių veiksnių, lemiančių, kaip greitai ir ekonomiškai efektyviai galima kurti ir dislokuoti modelius. Geresnių paralelizavimo strategijų tyrimai dabar yra atskira studijų sritis.
RAMageddon yra smagus naujas terminas, apibūdinantis ne itin smagią tendenciją, kuri apima technologijų pramonę: nuolat didėjantį operatyviosios atminties arba RAM mikroschemų trūkumą, kuris maitina beveik visus technologijų produktus, kuriuos naudojame kasdieniame gyvenime. DI pramonės klestėjimo metu didžiausios technologijų įmonės ir DI laboratorijos – kurios visos varžosi, kad turėtų galingiausią ir efektyviausią DI – perka tiek daug RAM, kad maitintų savo duomenų centrus, kad mums visiems nelieka daug. O tas tiekimo apribojimas reiškia, kad tai, kas liko, darosi vis brangesnis.
Tai apima tokias pramonės šakas kaip žaidimų (kur didelės įmonės turėjo padidinti konsolių kainas, nes sunkiau rasti atminties mikroschemų savo įrenginiams), buitinė elektronika (ten atminties trūkumas gali sukelti didžiausią išmaniųjų telefonų siuntų nuosmukį per daugiau nei dešimtmetį) ir bendras įmonių skaičiavimas (nes tos įmonės negali gauti pakankamai RAM savo duomenų centrams). Tikimasi, kad kainų šuolis sustos tik pasibaigus baisiam trūkumui, tačiau, deja, nėra jokių požymių, kad tai įvyks artimiausiu metu.
Stiprinamasis mokymasis yra DI mokymo būdas, kai sistema mokosi bandydama dalykus ir gaudama atlygį už teisingus atsakymus – tarsi mokytumėte savo mylimą augintinį su skanėstais, išskyrus tai, kad šio scenarijaus „augintinis“ yra neuronų tinklas, o „skanėstas“ yra matematinis signalas, rodantis sėkmę. Skirtingai nuo prižiūrimo mokymosi, kai modelis yra apmokomas fiksuotu etiketinių pavyzdžių duomenų rinkiniu, stiprinamasis mokymasis leidžia modeliui tyrinėti savo aplinką, imtis veiksmų ir nuolat atnaujinti savo elgesį, remiantis gautais atsiliepimais. Šis metodas pasirodė ypač galingas mokant DI žaisti žaidimus, valdyti robotus ir, visai neseniai, pagerinti didelių kalbos modelių argumentavimo gebėjimus. Tokios technikos kaip sustiprintas mokymasis iš žmogaus atsiliepimų arba RLHF dabar yra esminės, kaip pirmaujančios DI laboratorijos tikslina savo modelius, kad jie būtų naudingesni, tikslesni ir saugesni.
Kalbant apie žmogaus ir mašinos komunikaciją, yra keletas akivaizdžių iššūkių – žmonės bendrauja naudodami žmogaus kalbą, o DI programos vykdo užduotis per sudėtingus algoritminius procesus, paremtus duomenimis. Žetonai panaikina tą atotrūkį: jie yra pagrindiniai žmogaus ir DI komunikacijos elementai, atspindintys diskrečius duomenų segmentus, kuriuos apdorojo arba sukūrė LLM. Jie sukuriami per procesą, vadinamą žetonizavimu, kuris suskaido neapdorotą tekstą į mažus vienetus, kuriuos kalbos modelis gali suvirškinti, panašiai kaip kompiliatorius verčia žmogaus kalbą į dvejetainį kodą, kurį kompiuteris gali suprasti. Įmonės aplinkoje žetonai taip pat lemia kainą – dauguma DI įmonių apmokestina už LLM naudojimą pagal žetonus, o tai reiškia, kad kuo daugiau verslas naudoja, tuo daugiau jis moka.
Taigi, vėlgi, žetonai yra maži teksto gabalėliai – dažnai žodžių dalys, o ne visos – į kuriuos DI kalbos modeliai suskaido kalbą prieš ją apdorodami; jie yra apytiksliai analogiški „žodžiams“, skirtiems suprasti DI darbo krūvius. Pralaidumas reiškia, kiek galima apdoroti per tam tikrą laikotarpį, todėl žetonų pralaidumas iš esmės yra DI darbo, kurį sistema gali apdoroti vienu metu, matas. Didelis žetonų pralaidumas yra pagrindinis DI infrastruktūros komandų tikslas, nes jis lemia, kiek vartotojų modelis gali aptarnauti vienu metu ir kaip greitai kiekvienas iš jų gauna atsakymą. DI tyrėjas Andrejus Karpathy apibūdino, kaip jaučiasi nerimas, kai jo DI prenumeratos neveikia – atkartodamas jausmą, kurį jis jautė kaip absolventas, kai brangi kompiuterinė įranga nebuvo visiškai išnaudojama – jausmas, kuris parodo, kodėl maksimalus žetonų pralaidumas tapo kažkuo panašaus į maniją šioje srityje.
Mašininio mokymosi DI kūrimo procesas vadinamas mokymu. Paprastai tariant, tai reiškia duomenų įvedimą siekiant, kad modelis galėtų mokytis iš modelių ir generuoti naudingus rezultatus. Iš esmės, tai yra proceso, kai sistema reaguoja į duomenų charakteristikas, leidžiančias jai pritaikyti išvestis siekiant norimo tikslo – nesvarbu, ar tai būtų kačių vaizdų identifikavimas, ar haiku generavimas pagal poreikį.
Mokymas gali būti brangus, nes jam reikia daug įėjimų, o reikiami kiekiai didėja – todėl hibridiniai metodai, tokie kaip taisyklių pagrindu veikiančio DI tikslinimas su tiksliniais duomenimis, gali padėti valdyti išlaidas nepradedant visko nuo nulio.
(Žiūrėkite: Išvada)
Technika, kai anksčiau apmokytas DI modelis naudojamas kaip atspirties taškas kuriant naują modelį kitai, bet paprastai susijusiai užduočiai – leidžiant anksčiau mokymo ciklais įgytas žinias panaudoti iš naujo.
Perkėlimo mokymasis gali paskatinti efektyvumo taupymą sutrumpinant modelio kūrimą. Tai taip pat gali būti naudinga, kai duomenų užduočiai, kuriai kuriamas modelis, yra šiek tiek ribota. Tačiau svarbu pažymėti, kad šis metodas turi apribojimų. Modeliai, kurie remiasi perkėlimo mokymusi, kad įgytų apibendrintų galimybių, greičiausiai turės būti apmokyti su papildomais duomenimis, kad gerai veiktų savo dėmesio srityje
(Žiūrėkite: Tikslus derinimas)
Svoriai yra pagrindiniai DI mokyme, nes jie nustato, kiek svarbos (ar svorio) suteikiama skirtingoms savybėms (arba įvesties kintamiesiems) duomenyse, naudojamuose sistemai apmokyti – taip formuojant DI modelio išvestį.
Kitaip tariant, svoriai yra skaitiniai parametrai, apibrėžiantys, kas labiausiai išsiskiria duomenų rinkinyje atsižvelgiant į nurodytą mokymo užduotį. Jie atlieka savo funkciją dauginant įvestis. Modelio mokymas paprastai pradedamas atsitiktinai priskirtais svoriais, tačiau, vykstant procesui, svoriai koreguojami, nes modelis siekia gauti išvestį, kuri labiau atitinka tikslą.
Pavyzdžiui, DI modelis, skirtas prognozuoti būsto kainas, kuris apmokytas istoriniais nekilnojamojo turto duomenimis apie tikslinę vietą, gali apimti svorius savybėms, tokioms kaip miegamųjų ir vonios kambarių skaičius, ar turtas yra atskiras ar sublokuotas, ar jame yra automobilių stovėjimo aikštelė, garažas ir pan.
Galiausiai, svoriai, kuriuos modelis priskiria kiekvienam iš šių įėjimų, atspindi, kiek jie veikia turto vertę, atsižvelgiant į pateiktą duomenų rinkinį.
Patvirtinimo nuostolis yra skaičius, kuris parodo, kaip gerai DI modelis mokosi mokymo metu – ir kuo mažesnis, tuo geriau. Tyrėjai atidžiai stebi jį kaip savotišką realaus laiko pažangumo ataskaitą, naudodami jį nuspręsti, kada nutraukti mokymą, kada koreguoti hiperparametrus arba ar ištirti galimą problemą. Vienas iš pagrindinių rūpesčių, kurį jis padeda nustatyti, yra per didelis pritaikymas, būklė, kai modelis įsimena savo mokymo duomenis, o ne iš tikrųjų mokosi modelių, kuriuos gali apibendrinti naujoms situacijoms. Pagalvokite apie skirtumą tarp studento, kuris iš tikrųjų supranta medžiagą, ir to, kuris tiesiog įsiminė praėjusių metų egzaminą – patvirtinimo nuostolis padeda atskleisti, kuo jūsų modelis tampa.
Šis straipsnis reguliariai atnaujinamas nauja informacija.


