Chat GBP като „феномен на черната кутия“

Занапред фокусът трябва да е повече върху създаването на изкуствен интелект, който се учи от по-малко данни

Икономика / Технологии
3E news
1900
article picture alt description

Източник: iStock by Getty Images.

"Много важно е да се разбере, че генеративни модели като ChatGPT могат да си измислят информация и хората не трябва да им вярват. Когато произведат някаква информация, тя трябва да се проверява". Това заяви пред БНР Димитър Димитров, разработчик и изследовател. Той споделя, че често му се случва да използва ChatGPT, за да намира по-сложна информация:

"Често го използвам, за да търся някакъв особен код или математически теореми, които по принцип в Гугъл много трудно се търсят. ChatGPT обикновено успява да даде бърз отговор. Проблемът там обаче е, че той не е интелигентен по същия начин, по който ние го разбираме. Съответно едно от нещата, които той може да прави, е т.нар. халюцинация, което значи да си измисля информация".

ChatGPT е много полезен и в редактирането на текст, добави Димитров и изказа мнението си: "За редактор на текст той наистина е на нивото на професионален човек".

Като значимо събитие в сферата на изкуствения интелект през изминаващата 2023 г. изследователят отличи:

"Достъпността на технологиите около генеративния изкуствен интелект като ChatGPT. Технологиите зад ChatGPT не са чак толкова нови, колкото хората си мислят. Научната работа, която стои зад тях, е от около 2018 г. В изследователските общности в последните 3-4 години се знаеше, че тези системи работят, но проблемът беше основно, че единствените хора, които можеха да ги тренират, са големите технологични компании.

Най-голямата промяна в изкуствения интелект през 2023 г. е фактът, че големите компании започнаха да отварят тези модели по 2 начина. Има много повече модели, които нормалните хора могат да използват. Те са отворени и за изследователите. Това ни позволява ние да разберем как работят вътрешно и да ги направим по-сигурни за използване и по-добри в проблемите, които имат в момента".

Въпреки че ние създаваме този изкуствен интелект, не разбираме на 100% математически как работи вътрешно, отбеляза още Димитър Димитров.

"Това е т.нар. феномен на черната кутия. На практика ние тренираме алгоритъма да може да прави нещата, които може да прави. След като сме ги тренирали, дори да виждаме числата в компютъра, които произвеждат резултата, ние не ги разбираме. Това води до проблема, в който тези модели до голяма степен зависят от данните, които слагаш в тях. /…/ Контролът на данните и как данните се използват оптимално през алгоритмите в тези модели е начинът, по който трябва да ги контролираме".

Това, което според Димитров ще има най-голям ефект за в бъдеще, е ако фокусът е повече върху създаването на изкуствен интелект, който се учи от по-малко данни.

Ключови думи към статията:

Коментари

Още от Технологии:

Предишна
Следваща