Site icon Regionų žinios

Antropinis generalinis direktorius teigia, kad AI modeliai yra haliucinuoti mažiau nei žmonės


Antropijos generalinis direktorius Dario Amodei mano, kad šiandienos AI modeliai yra haliucinuoti arba sudeda viską ir pateikia juos taip, lyg būtų teisingi, mažesniu tarifu nei žmonės, – sakė jis per spaudos instruktažą per pirmąjį „Anthropic“ kūrėjų renginį „Code with Claude“, ketvirtadienį San Franciske.

Amodei sakė, kad visa tai padarė didesnio taško, kurį jis padarė: kad AI haliucinacijos nėra Antropiko kelio į AGI-AI sistemos su žmogaus lygio intelektu ar geriau.

„Tai tikrai priklauso nuo to, kaip jūs tai vertinate, tačiau aš įtariu, kad AI modeliai tikriausiai haliucinuoja mažiau nei žmonės, tačiau jie labiau stebina“, – sakė Amodei, atsakydamas į „TechCrunch“ klausimą.

„Anthropic“ generalinis direktorius yra vienas iš labiausiai bulių pramonės lyderių dėl AI modelių, pasiekusių AGI, perspektyvą. Plačiai išplatintame dokumente, kurį jis parašė praėjusiais metais, Amodei teigė, kad, jo manymu, Agi gali atvykti vos 2026 m. Ketvirtadienio spaudos instruktažo metu antropinis generalinis direktorius teigė, kad jis mato pastovų progresą iki to tikslo, pažymėdamas, kad „vanduo auga visur“.

„Visi visada ieško šių sunkių blokų, ką (AI) gali padaryti“, – sakė Amodei. „Jie niekur nematyti. Tokio dalyko nėra.”

Kiti AI vadovai mano, kad haliucinacija sukelia didelę kliūtį pasiekti AGI. Anksčiau šią savaitę „Google Deepmind“ generalinis direktorius Demisas Hasabisas teigė, kad šiandienos AI modeliuose yra per daug „skylių“ ir sulaukia per daug akivaizdžių klausimų. Pavyzdžiui, anksčiau šį mėnesį antropikui atstovaujantis advokatas buvo priverstas atsiprašyti teisme po to, kai jie panaudojo Claude'ą, kad sukurtų citatas teismo paraiškoje, o AI pokalbių bazės haliucinuotas ir neteisingai gavo vardus ir pavadinimus.

Sunku patikrinti Amodei teiginį daugiausia dėl to, kad dauguma haliucinacijos etalonų PIT AI modelių vienas prieš kitą; Jie nelygina modelių su žmonėmis. Atrodo, kad tam tikri metodai padeda sumažinti haliucinacijos procentus, pavyzdžiui, suteikti AI modeliams prieigą prie interneto paieškos. Atskirai kai kuriems AI modeliams, tokiems kaip „Openai“ GPT-4.5, ypač mažesnis haliucinacijos greitis etalonuose, palyginti su ankstyvomis sistemų kartomis.

Tačiau taip pat yra įrodymų, leidžiančių manyti, kad haliucinacijos iš tikrųjų pablogėja pažengusiųjų samprotavimų AI modeliuose. „Openai“ O3 ir O4-MINI modeliai turi aukštesnį haliucinacijos procentą nei „Openai“ ankstesnių genčių samprotavimų modeliai, ir įmonė nelabai supranta, kodėl.

Vėliau spaudos instruktaže Amodei atkreipė dėmesį, kad televizijos transliuotojai, politikai ir žmonės visose profesijose daro klaidas visą laiką. Anot „Amodei“, tai, kad AI daro klaidų, nėra jos intelekto žvalgyba. Tačiau „Anthropic“ generalinis direktorius pripažino pasitikėjimą, su kuriuo AI modeliai pateikia netiesioginius dalykus, nes faktai gali būti problema.

Tiesą sakant, „Anthropic“ atliko nemažai tyrimų dėl AI modelių polinkio apgauti žmones – tai problema, kuri, atrodo, ypač paplitusi bendrovės neseniai paleistame „Claude Opus 4“. „Apollo Research“, saugos institutas, suteikiantis ankstyvą prieigą prie AI modelio, nustatė, kad ankstyvoji „Claude Opus 4“ parodė aukštą „Scheme“ polinkį prieš Humaną ir apgaulę. „Apollo“ siekė, kad „Anthropic“ neturėjo išleisti tokio ankstyvojo modelio. Antropicas teigė, kad atsirado tam tikrų švelnių, kurie, atrodo, išsprendė „Apollo“ iškeltus klausimus.

Amodei komentarai rodo, kad antropicas gali laikyti AI modelį AGI arba lygus žmogaus lygio intelektui, net jei jis vis dar haliucinuoja. Vis dėlto AI, kuri haliucinatai gali nepatekti į AGI pagal daugelio žmonių apibrėžimą.



Source link

Exit mobile version