Изкуственият интелект е заплаха за науката, предупреждават учени от Оксфорд
Автоматизацията може да притъпи човешкото желание за търсене на истината
В ново есе изследователи от Оксфордския интернет институт твърдят, че учените трябва да се въздържат от използването на генеративен изкуствен интелект, като чатботове, за подпомагане на научните изследвания, съобщава Dir.bg.
Изкуственият интелект е склонен към халюцинации или изфабрикуване на фалшиви факти. Част от тях са трудни за откриване, тъй като езиковите модели обикновено звучат доста авторитетно. Всичко това създава заплаха за "наводняването" на науката с неверни или частично грешни твърдения и изводи.
"Нашата тенденция да антропоморфизираме машините и да им се предоверяваме, консумирайки и разпространявайки лошата информация, която те произвеждат в процеса, е уникално тревожно за бъдещето на науката.", пишат изследователите в есето, публикувано тази седмица в списание Nature Human Behavior.
"Алгоритмите с големи езикови модели са предназначени да дават полезни и убедителни отговори," продължават те, "без каквито и да е основни гаранции по отношение на тяхната точност или съответствие с фактите."
Казано по-просто, ако голям езиков модел — който преди всичко се учи да бъде убедителен — излезе с отговор, който е убедителен, но не непременно фактологичен, фактът, че резултатът е убедителен, ще отмени неговата неточност.
За алгоритъмът извеждането на отговора "не знам" е по-малко полезно от предоставянето на неправилен отговор. Това обаче е само половината част от проблема.
Склонността ни да антропоморфизираме всичко около нас, е добре документиран феномен. Поради този ефект вече сме подготвени да се доверяваме твърде много на AI; съчетайте това с уверения тон, който тези чатботове толкова често приемат.