За да създадат AI копия, учените помолиха около 1000 души да отговорят на въпроси, свързани с житейските ценности, личния опит и отношението към социалните проблеми.
Необходими са само два часа на един неврон, за да копира човешка личност – казват изследователитр от Google и Станфорд.
Ето какво трябва да знаете:
— Невронните мрежи могат да копират личността и да имитират човешкото поведение с 85% точност;
— ИИ се нуждае само от няколко часа разговор, за да измъкне всичко от вас: психология, знания, културни характеристики, ниво на интелигентност;
— Има много приложения за такова „копиране“, включително за тъмни цели, за социални експерименти или манипулация;
Най-обезпокоителната част: най-вероятно вече имате цифрово копие – ако взаимодействате отблизо с AI и споделяте подробности от живота си с него.


Изследователите от университета в Станфорд платиха на 1052 души $60, за да прочетат първите два реда от Големият Гетсби към приложение. Това направи, AI, който приличаше на 2D спрайт от финалната фентъзи игра от епохата на SNES, помоли участниците да разкажат историята на живота си. Учените взеха тези интервюта и ги изработиха в AI, за който казват, че възпроизвежда поведението на участниците ’ с 85% точност.
Изследването, озаглавено Симулации на генеративен агент на 1000 души, е съвместно предприятие между Станфорд и учени, работещи за изследователската лаборатория на DeepMind AI на Google. Теренът е, че създаването на AI агенти въз основа на случайни хора може да помогне на политиците и бизнесмените да разберат по-добре обществеността. Защо да използвате фокус групи или да анкетирате обществеността, когато можете да говорите с тях веднъж, да въртите LLM въз основа на този разговор и след това да имате своите мисли и мнения завинаги? Или поне толкова близо приближение на тези мисли и чувства, колкото LLM е в състояние да пресъздаде.
“Тази работа дава основа за нови инструменти, които могат да помогнат за изследване на индивидуалното и колективното поведение, ” резюмето на вестника.
“Как може, например, разнообразен набор от хора да реагират на нови политики и съобщения за обществено здраве, да реагират на пускането на продукти или да реагират на големи сътресения? ” Документът продължи. “Когато симулираните индивиди се комбинират в колективи, тези симулации биха могли да помогнат на пилотни интервенции, да развият сложни теории, улавящи нюансирани причинно-следствени и контекстуални взаимодействия, и да разширят нашето разбиране за структури като институции и мрежи в области като икономика, социология, организации и политически наука. ”
Всички тези възможности, базирани на двучасово интервю, подадено в LLM, което отговаря на въпроси, най-вече като техните колеги в реалния живот.
Голяма част от процеса беше автоматизиран. Изследователите договориха Bovitz, фирма за пазарни проучвания, за да събере участници. Целта беше да се получи широка извадка от населението на САЩ, възможно най-широка, когато е ограничена до 1000 души. За да завършат проучването, потребителите се регистрираха за акаунт в специално създаден интерфейс, направиха 2D спрайт аватар и започнаха да говорят с AI интервюиращ.
Въпросите и стилът на интервюто са модифицирана версия на тази, използвана от Проект за американски гласове, съвместен проект на университета в Станфорд и Принстън, който интервюира хора в цялата страна.
Всяко интервю започна с участниците, които прочетоха първите два реда от Големият Гетсби (“ В по-младите си и по-уязвими години баща ми ми даде съвет, че оттогава се преобръщам в съзнанието си. ‘Всеки път, когато се почувствате като критикувате някой, ’ той ми каза, ‘просто не забравяйте, че всички хора в този свят не са имали предимствата, които сте имали. ’”) като начин за калибриране на звука.
Според документа “Интерфейсът за интервю показва 2-D спрайт аватар, представляващ агента за интервюиране в центъра, като аватарът на участника е показан в долната част, вървейки към целева публикация, за да посочи напредъка. Когато агентът за интервюиране на AI говореше, той бе сигнализиран от пулсираща анимация на централния кръг с аватара на интервюиращия. ”
Двучасовите интервюта средно създадоха преписи с дължина 6 491 думи. Той задава въпроси относно расата, пола, политиката, доходите, използването на социалните медии, стреса от работата им и грима на техните семейства. Изследователите публикуваха сценария за интервю и зададоха въпроси на AI.
Тези преписи, по-малко от 10 000 думи всеки, след това бяха подадени в друг LLM, който изследователите използваха за отделяне на генеративни агенти, за да възпроизведат участниците. Тогава изследователите поставят както участниците, така и AI клоновете чрез повече въпроси и икономически игри, за да видят как ще се сравнят. “Когато агент е попитан, целият препис на интервю се инжектира в подкана на модела, като инструктира модела да имитира лицето въз основа на данните им за интервю, ” в документа.
Тази част от процеса беше възможно най-близка до контролирана. Изследователите използваха Общо социално проучване (GSS) и Голяма пет инвентаризация на личността (BFI), за да се тества колко добре LLM съответстват на вдъхновението си. След това той прокара участници и LLM чрез пет икономически игри, за да види как ще се сравнят.
Резултатите бяха смесени. Агентите на AI отговориха на около 85% от въпросите по същия начин като участниците в реалния свят в GSS. Те удариха 80% на BFI. Цифрите обаче паднаха, когато агентите започнаха да играят икономически игри. Изследователите предложиха на участниците в реалния живот парични награди за игра на игри като Дилема на затворника и Играта на диктатора,
В Дилемата на затворника участниците могат да изберат да работят заедно и двамата да успеят или да прецакат партньора си за шанс да спечелят големи. В играта на диктатора участниците трябва да изберат как да разпределят ресурси на други участници. Субектите от реалния живот спечелиха пари над оригиналните $60 за игра.
Изправени пред тези икономически игри, AI клонингите на хората също не възпроизвеждат своите колеги от реалния свят. “Средно генеративните агенти постигат нормализирана корелация от 0,66, ” или около 60%.
Целият документ си струва да прочетете, ако се интересувате как академиците мислят за агентите на ИИ и обществеността. Не отне много време изследователите да сведат личността на човек в LLM, която се държеше по подобен начин. Имайки предвид времето и енергията, те вероятно могат да сближат двете.
Това ме притеснява. Не защото не искам да виждам неефективния човешки дух, сведен до електронна таблица, а защото знам, че този вид технологии ще бъдат използвани за болни. Вече видяхме по-глупави LLM, обучени на публични записи, които измамват бабите да раздават банкова информация на роднина на AI след бързо телефонно обаждане. Какво се случва, когато тези машини имат скрипт? Какво се случва, когато имат достъп до изградени по предназначение личности въз основа на дейността на социалните медии и друга публично достъпна информация?
Какво се случва, когато корпорация или политик реши, че обществеността иска и се нуждае от нещо, основано не на тяхната изговорена воля, а на сближаване на нея?