Прашањето за тренирање на вештачката интелигенција довело до расправа за тоа како самата вештачка интелигенција функционира.
За бројни луѓе вештачката интелигенција сè уште е голема непознаница. Иако „AI“ алатките сè почесто се користат и презентираат како нешто што ќе го промени начинот на кој работиме и живееме, луѓето и натаму се скептични. Делумно бидејќи „AI“ е нешто што не можат да го видат и опипаат, а делумно бидејќи не знаат за што таквите алатки би се користеле и како целата работа функционира.
Но, изгледа дека не се единствени во тоа размислување. Учествувајќи на „AI for Good Global Summit“ во Женева, шефот на „OpenAI“ Сем Алтман, истата компанија која ја започна целата „AI“ лудница, открил неколку интересни факти за нивниот популарен четбот „ChatGPT“.
На прашањето што е првата добра работа која „AI“ ја поттикна во светот, Алтман ја истакнал побрзата и поефикасна работа. Но, исто така истакнал и дека главната негативна работа која е резултат на употребата на „AI“ во светот, пред сè е нарушената сајбер безбедност, но додал дека од друга страна вештачката интелигенција ќе помогне во зајакнувањето на сајбер безбедноста.
Еден од главните проблеми кои се појавуваат во развојот на вештачката интелигенција се изворите на податоци на основа на кои алатките за вештачка интелигенција се развиваат. Веќе долго се зборува за тоа дека снемува податоци, а факт е дека на интернет има се повеќе таканаречени синтетички податоци, кои настанале со употреба на вештачка интелигенција, а тренирањето на „AI“ на основа на тие податоци би можело да доведе до проблеми во иднината.
„Мислам дека се потребни квалитетни податоци. Постојат лоши податоци кои се синтетички креирани, но и лоши податоци кои ги создале луѓето. И додека можеме да пронајдеме доволно квалитетни податоци за тренирање на нашите модели, не би требало да има проблеми“, истакнал Алтман.
Токму тоа прашање за тренирањето на вештачката интелигенција довело до расправала за тоа како самата вештачка интелигенција функционира.
Меѓу другото, признал дека компанијата сè уште не знае како функционира нејзиниот голем јазичен модел. Имено, моментално можностите на „AI“ моделите се ограничуваат на ниво на интерфејс кој се користи за комуникација со корисниците. Но, целта е да се создадат такви модели кои би можеле да ги учат луѓето за хемија, но не и како можат да направат хемиско оружје. Тоа е делот кој „AI“ не го разбира, а луѓето, признава Алтман, не знаат како „AI“ функционира во позадина, па ни како да го решат тој проблем.
Сè уште не сме ја решиле интерпретабилноста, истакнал Алтман, сугерирајќи дека компанијата допрва треба да сфати како да влезе во траг на функционирањето на своите модели на вештачка интелигенција. По понатамошно истражување дали е потребно да се објават нови и помоќни модели, Алтман рекол дека овие системи воопшто се сметаат за безбедни и робусни.
Алтман додал дека тие не разбираат што се случува во вашиот мозок на ниво на неврон по неврон, па следат некои стандардни правила за да разберат како човековиот мозок сака да објасни било кое одредено прашање.
Тој признава дека ни компанијата која го развила „ChatGPT“ всушност не знае како вештачката интелигенција функционира во позадина, и тоа е тоа што ги загрижува експертите кои повикуваат на поголемо вложување во безбедноста на вештачката интелигенција.
Меѓутоа, Алтман смета дека безбедноста ќе се развива со понатамошен развој и разбирање на „AI“.
„Ми се чини дека колку повеќе можеме да разбереме што се случува во овие модели, толку подобро“, истакнал Алтман.