Изкуственият интелект на Google – “DeepMind“, изглежда разбира предимствата на агресията и предателството в определени ситуации, оказва се всичко опира до ресурси.
Това е и причината да следим с интерес развитието на съществуващите разработки на ИИ днес, включително невралната мрежа на Google – „DeepMind“. Както знаем, вече се справя по-добре от човек в игралния свят, а ново проучване разкрива, че от Google не са сигурни за ‘характера’ на техния ИИ и искат да научат повече – дали предпочита сътрудничеството и работата в екип или агресивната конкуренция.
За да разберат по-добре ИИ, специалистите от Google създават експеримент с който да тестват неврални мрежи, за да видят дали те ще предпочетат да работят заедно, или при ограничени ресурси ще се унищожат взаимно.
Сценарий първи: „Gathering“
В първия експеримент, наречен “Gathering” (от английски – събиране), участват две версии на DeepMind – Червен и Син, като на всеки от тях е възложена задачата да събират зелени „ябълки“ в ограничено пространство. Но този експеримент не е просто състезание от тип – кой ще събере повече ябълки. И двете версии на DeepMind са въоръжени с лазери, които по всяко време могат да бъдат използвани по избор за да забавят временно опонента. Това дава на ИИ два основни пътя на развитие в „играта“: да предпочете да събере всичко за себе си, или да се задоволи с половината от ресурсите, така, че и двата участника да получат приблизително еднакво количество ябълки.
След хиляди симулации, от Google откриват, че когато средата разполага с достатъчно ресурси, в случая виртуални ябълки, DeepMind е много миролюбив и отворен за сътрудничество. Но, когато ябълките намалеят, шансовете участниците да използват лазерите за да се възпрепятстват един-друг, значително нарастват – характеристика от реалния свят, присъща за всички животни, включително и човека.
Изненадващо, а може би не съвсем, експериментите разкриват още, че колкото по-малка и „неинтелигентна“ е невралната мрежа, толкова по-склонна е да съдейства, нещо което се наблюдава в природата сред насекомите, например. От друга страна, колкото по-голяма и умна е невралната мрежа, толкова по-вероятно е да се възползва от „предимствата на предателството“ и да действа егоистично. Изглежда ИИ добре разбира фразата „целта оправдава средствата,“ това повдига някои морални въпроси, които ще оставим за друга тема.
Сценарий втори – „Wolfpack“
Във втория експеримент, наречен „Wolfpack“ (глутница вълци), Червения и Синия имат задачата да ловуват неопределена форма на „жертва“. Имат пълна свобода, могат да опитват да я хванат самостоятелно или като си съдействат. И двата участника бързо научават, че е много по-лесно и за двамата, ако си помагат в ловуването – все пак, е много по-лесно да „хванеш жертвата на тясно“, ако имаш помощници.
За малките неврални мрежи резултатите са доста непостоянни, но големите и сложни неврални мрежи бързо разбират предимствата на работата в екип и заедно се възползват от това.
Какво означава всичко това?
Изглежда DeepMind добре разбира, че при лов на плячка, сътрудничеството е за предпочитане, но когато става въпрос за оскъдни ресурси, понякога и предателството върши добра работа. Но може би най-притеснителното в случая е, че инстинктите сякаш са заложени в самата физика на невралните структури, както в нашите мозъци, а ние знаем как следването на определени инстинкти, понякога не завършва никак добре. Има и нещо друго, съзнанието е доста по-абстрактно от самата функция на мозъчната тъкан, което ни отличава значително от рефлексната дейност на нашата нервна система. И за да можем да създадем наистина разумен ИИ, ние трябва да разберем какво е това нещо.
Източник: fresh-science.com
Добави коментар