Josep M. Pujol, Andreas Flache, Jordi Delgado and Ramon Sanguesa (2005) How Can Social Networks Ever Become Complex? Modelling the Emergence of Complex Networks from Local Social Exchanges Journal of Artificial Societies and Social Simulation vol. 8, no. 4
Имеется N агентов. Каждый агент i характеризуется числом ai, показывающим его привлекательность для других агентов, (0 < ai < 1). Заранее ai неизвестна ни ему самому, ни другим агентам. Она выявляется в процессе взаимодействий (как рыночная стоимость). Для простоты осуществления процесса симуляций заданная привлекательность распределяется равномерно.
2.4
В любой момент времени память агента i выглядит следующим образом:
где oij есть некоторая выгода, которую получает агент i при взаимодействии с агентом j , tij представляет собой момент времени, когда взаимодействие произошло, Jit есть подмножество всех агентов, о которых агент i помнит.
Jit {1..N}. В любой момент времени происходит раунд взаимодействий всех агентов. При этом агенты активизируются в случайном порядке, чтобы принять решение. Подмножество агентов, с которыми данный агент может взаимодействовать ограничено величиной памяти Mc,(одинаковой для всех агентов), то-есть
2.5
Предполагается, что в памяти агента i имеются два подмножества агентов: известные для данного агента Kit, и неизвестные для него Uit. Агент j считается неизвестным для i, когда i не знает характеристики j, но знает только, что последний существует. Те агенты, о которых данный агент не подозревает, в данное множество не входят. Суммарное множество всех агентов, о существовании которых агент i знает, обозначается Jit, где и . В начале предполагается, что известных агентов нет, а множество неизвестных для каждого агента определяется случайным образом. Соответственно, выгода (oij,tij) , которую i получает после взаимодействия с j в момент t записывается в память i только тогда, когда j известен, то – есть .
2.6
В процессе взаимодействий агенты активируются в случайной последовательности. Активизированный агент старается установить Q взаимодействий с агентами, содержащимися в его памяти.
2.7
Агент выбирает цели (агентов) взаимодействия, стараясь максимизировать суммарную пользу. Как это конкретно делается, объясняется ниже.
2.8
Взаимодействие происходит, если оба агента согласны. При этом имеет место ограничение по числу взаимодействий, происходящих одновременно. Мы называем это ограничение способность к взаимодействиям C. Способность к взаимодействиям не превосходит объем памяти, то – есть .
Действия, результаты, выгоды от социальных взаимодействий.
2.9
Результат однократного взаимодействия между агентами i и j может быть DD, (взаимный отказ) отказ i и позитивная реакция j DC и наоборот, CD, наконец, взаимная кооперация CC.
2.10
Технически, мы полагаем, что выгода агента i составляет ai(1 - aj) единиц совета. Соответственно, i получает (и j дает) (1-ai)aj единиц, если j решает поддержать i (C). В то же время , i не получает совета, если j не дает поддержки (D).
2.11
Выгода, которую получают оба агента при взаимодействии, обозначается pij и pji, При результате DD, агенты не получают совета ни дают его. Технически мы моделируем приобретение для i от получения совета от j, Gij и i потерю, как результат совета для j, Lij, следующим образом:
;
2.12
Здесь параметры B и E - положительные константы, измеряющие B, от получения одной единицы совета против единицы затрат на предоставление совета E. Это центральное предположение, состоящее в том, что интересные для самого себя индивиды могут извлекать выгоду из обмена советами. Для уверенности в этом мы предполагаем, что выгода от получения единицы совета больше затрат на производство совета. Отношение затраты - выгода E/B, параметризует степень неприязни.
2.13
Рисунок 1 иллюстрирует структуру мотиваций агентов.
Рисунок 1
2.14
Рисунок 1 показывает, что эта support game может быть действительно социальной дилеммой, где кооперация конфликтует с само-интересом. Ничего не гарантирует «альтруизма» внутри одной итерации.
2.15
Заметим, что из модели следует, что способность производить советы и необходимость их получать находятся в обратной зависимости. Чем больше агент нуждается в совете в определенный период времени, тем меньше он дает советы в этот же период.
2.16
При моделировании локальное и несовершенное знание агентов, мы предполагаем, что B и E, также как уровни привлекательности не являются известными. То есть агенты стремятся к своим целям в условиях высокую степень неопределенности. В следующем параграфе мы объясним, каким знанием в действительности обладают агенты когда они вступают в процесс взаимодействия.
Эвристика агентов при принятии решений.
2.17
Когда агент i активизируется, он в первую очередь выбирает другого агента k для предложения ему вступить во взаимодействие в периоде t.
2.18
Вероятность, с которой агент i выбирается, есть eit . Этот агент выбирает партнера для взаимодействия из числа ему известных, то есть из Kit , такого, от которого ожидается наибольшая выгода. Если наибольшая выгода достигается на двух или более партнерах, то делается случайный выбор.
2.19
В начале агенты выбирают партнеров для взаимодействия случайным образом, так что суммарная вероятность равна 1. Мы предполагаем, что имеет место тенденция к уменьшению выбора партнеров для взаимодействия по мере накопления знания о партнерах. Из этого следует, что вероятность выбора партнеров для дальнейших взаимодействий становится различной для разных агентов. В частности, популярные агенты уменьшают свою вероятность взаимодействия с партнерами, поскольку они получают много предложений для взаимодействия и, соответственно, быстрее получают знания об окружающих, чем менее популярные агенты. Технически мы моделируем вероятность к дальнейшим взаимодействиям в момент времени t как отношение числа неизвестных (в памяти i агента) к квадрату числа известных ему агентов в этот момент времени.
2.20
После того, как взаимодействие инициировано, агент j, которому сделано предложение, должен решить, принять или не принять предложение агента i. Мы предполагаем, что j будет принимать предложение только тогда, когда j не достиг лимита своей мощности взаимодействий C и для j агент i существует (известен). Если, более того, агент – инициатор не известен j, тогда предложение будет принято. Если инициатор i известен j, тогда j примет предложение тогда и только тогда , когда он ожидает, что результат будет неотрицательным.
2.21
Если предложение о взаимодействии принято, агенты i и j играют один раунд support игры. А именно, i вступает в кооперацию с j, если и только если ожидаемая чистая выгода с точки зрения i является положительной, . В частности, когда агент не имеет предыдущего опыта со своим контрагентом, он может достоверно оценить чистую выгоду от взаимной кооперации.
2.22
После того, как взаимодействие завершено, агенты обновляют свою память. Если к этому моменту времени партнер не записан в памяти агента, тогда в свободной ячейке памяти эта запись будет сделана. Если свободной ячейки памяти нет, то запись тем не менее делается, а какой –то из предыдущих партнеров забывается. Мы предполагаем, что забывается наименее привлекательный партнер. Технически агент k, который будет забыт агентом i, выбирается следующим образом:
где t представляет собой текущий момент времени.
2.23
В случае, если i имеет предварительный опыт со своим последним партнером, в памяти записывается среднее значение выгоды, вычисленной сейчас и значением, записанным в памяти ранее. Заметим, что вес старых записей в памяти уменьшается с каждым новым взаимодействием с тем же самым партнером. Наоборот, когда i решает не взаимодействовать с j, ожидаемый результат будет указан как -pij. Это соотносится с нашим предположением, что агенты не обладают стратегическим мышлением.
Технически:
где tij относится к текущему моменту симуляции и pij обозначает выгоду, полученную от последней итерации. Когда предложение о взаимодействии отклонено, память также обновляется в соответствии с приведенной выше формулой, где выгода pij, полагается равной нулю.
2.24
Как агенты могут узнавать новых партнеров, если их взаимодействие ограничивается только теми, кого они уже знают? Используется механизм слухов. Моделирование слухов предполагает, что информация о репутации распространяется как дополнительный продукт при взаимодействии. Мы предполагаем, что агенты обмениваются информацией из их памяти, если взаимодействие было успешным для обоих, то – есть: pij > 0 и pji > 0. Более точно, партнеры i и j говорят друг другу, какой агент в их памяти имеет наибольший ожидаемый выход. А именно, этот агент k находится как . Используется также неявное знание, где выгода точно неизвестна.
2.25
Учитывая ограниченную рациональность, полагаем
3.10
Ниже, в виде рисунков представлены некоторые результаты расчетов (a, b и c). Это три различные сети отображают модель LO с тремя различными уровнями E/B .
Рисунок 2: Параметры: N=200, Mc=150, C=150, Mo=10, Q=1, ME= задан явно . Рисунок a) E/B=0; сеть имеет вид "Звезды". Рисунок b) E/B=2/16; мощная сеть. Рисунок c) E/B=8/16; экспоненциальная сеть.