„Google“ išleido trejetą naujų, „atvirų“ generuojamųjų AI modelių, kuriuos ji vadina „saugesniais“, „mažesniais“ ir „skaidresniais“ nei dauguma – tai drąsus teiginys.
Jie yra „Google Gemma 2“ generuojamųjų modelių šeimos, kuri debiutavo gegužę, papildymai. Nauji modeliai „Gemma 2 2B“, „ShieldGemma“ ir „Gemma Scope“ yra skirti šiek tiek kitokioms reikmėms ir naudojimo atvejams, tačiau juos sieja bendras saugumas.
„Google“ „Gemma“ modelių serija skiriasi nuo „Gemini“ modelių tuo, kad „Google“ nepateikia „Gemini“ šaltinio kodo, kuris naudojamas „Google“ produktuose ir yra pasiekiamas kūrėjams. Greičiau Gemma yra Google pastangos skatinti gerą valią kūrėjų bendruomenėje, panašiai kaip Meta bando daryti su Llama.
„Gemma 2 2B“ yra lengvas modelis, skirtas analizuoti tekstą, kuris gali veikti įvairioje aparatinėje įrangoje, įskaitant nešiojamuosius kompiuterius ir kraštutinius įrenginius. Ji licencijuota tam tikriems tyrimams ir komercinėms programoms ir ją galima atsisiųsti iš tokių šaltinių kaip „Google Vertex AI“ modelių biblioteka, duomenų mokslo platforma „Kaggle“ ir „Google“ AI Studio įrankių rinkinys.
Kalbant apie „ShieldGemma“, tai „saugos klasifikatorių“, kuriais bandoma aptikti toksiškumą, pvz., neapykantą kurstančią kalbą, priekabiavimą ir seksualinį turinį, rinkinys. Sukurta ant Gemma 2, „ShieldGemma“ gali būti naudojama norint filtruoti generuojamojo modelio raginimus ir modelio generuojamą turinį.
Galiausiai, „Gemma Scope“ leidžia kūrėjams „priartinti“ konkrečius Gemma 2 modelio taškus ir padaryti jo vidinį veikimą aiškiau suprantamą. Štai kaip „Google“ tai apibūdina tinklaraščio įraše: „[Gemma Scope is made up of] specializuoti neuroniniai tinklai, padedantys mums išpakuoti tankią, sudėtingą Gemma 2 apdorotą informaciją, išplėsdami ją į formą, kurią būtų lengviau analizuoti ir suprasti. Tyrinėdami šiuos išplėstinius vaizdus, tyrėjai gali įgyti vertingų įžvalgų apie tai, kaip Gemma 2 nustato modelius, apdoroja informaciją ir galiausiai daro prognozes.
Naujieji „Gemma 2“ modeliai bus išleisti netrukus po to, kai JAV prekybos departamentas preliminariame pranešime patvirtino atvirus AI modelius. Atvirieji modeliai išplečia generatyvinio AI prieinamumą mažesnėms įmonėms, tyrėjams, ne pelno organizacijoms ir individualiems kūrėjams, sakoma ataskaitoje, taip pat pabrėžiama, kad reikia gebėjimų stebėti tokius modelius dėl galimos rizikos.