Ремонт принтеров, сканнеров, факсов и остальной офисной техники


назад Оглавление вперед




[102]

Рис. 16.2 Дерево рекурсии для recursive-matrix-chain(р, 1, 4). В каждой вершине записаны значения г и j. Заштрихованы «лишние» вершины (вычисления в которых повторяют уже проделанные).

На рис. 16.2 изображено дерево рекурсии для Recursive-Matrix-Chain (р, 1,4). В каждой вершине записаны значения г и j. Обратите внимание, что некоторые пары встречаются многократно.

Легко видеть, что время работы Recursive-Matrix-Chain(p, 1, га) зависит от га по меньшей мере экспоненциально. В самом деле, обозначим его Т(п) и примем, что время исполнения строк 1-2, а также 6-7, равно единице. Тогда:

Т(1) > 1,

п-1

Т(п) 1 + 5(Г(Л) + Т(п - k) + 1), если га > 1. к=1

В сумме по к каждое Т[г) (при г = 1, 2,..., га - 1) встречается дважды, и ещё есть п-1 единиц. Стало быть,

п-1

Т(п) 2Г(г) + га.(16.4)

г = 1

Докажем по индукции, что Т(п) 2п~1 для всех п 1. При п = 1 неравенство выполнено, так как Т(1) 1 = 2°. Шаг индукции:

п-1п-2

Т(п) > 2 28"1 + га = 22г + га =

г=1г=0

= 2(2n 1 -l) + ra = 2n-2 + ra 2п~1.

Мы видим, что алгоритм Recursive-Matrix-Chain требует экспоненциального времени. Причина в том, что этот алгоритм многократно встречает одинаковые подзадачи и каждый раз решает их заново. Различных подзадач всего лишь ©(га2), и масса времени теряется на лишнюю работу. Метод динамического программирования позволяет этой лишней работы избежать.


Динамическое программирование «сверху вниз»

Алгоритм раздела 16.1 действовал «снизу вверх». Но тот же приём (исключение повторного решения подзадач) можно реализовать и для алгоритмов, работающих «сверху вниз». Для этого нужно запоминать ответы к уже решённым подзадачам в специальной таблице. Сначала вся таблица пуста (т.е. заполнена специальными записями, указывающими на то, что соответствующее значение еще не вычислено). Когда в процессе выполнения алгоритма подзадача встречается в первый раз, её решение заносится в таблицу. В дальнейшем решение этой подзадачи берётся прямо из таблицы. (В нашем примере таблицу ответов завести легко, так как подзадачи нумеруются парамиВ более сложных случа-

ях можно использовать хеширование.) По-английски этот прием улучшения рекурсивных алгоритмов называется memoization.

Применим это усовершенствование к алгоритму Recursive-Matrix-Chain:

Memoized-Matrix-Chain(p)

1га <- length\p] - 1

2for г <- 1 to га

9 return m[i,j]

Процедура Memoized-Matrix-Chain, подобно Matrix-Chain-Order, заполняет таблицу га[1. .га, 1. .га], где га [г, j] - минимальное количество умножений, необходимое для вычисления a4-..j. Первоначально m[i,j] = оо в знак того, что соответствующее место в таблице не заполнено. Если при исполнении Lookup-Chain(p, i, j) оказывается, что m[i,j] < оо, то процедура сразу выдает это значение m[i,j]. В противном случае m[i,j] вычисляется как в процедуре Recursive-Matrix-Chain, записывается в таблицу и выдаётся в качестве ответа. Тем самым вызов Lookup-Chain(p, г, j) всегда

3

4 5

7

8


возвращает m[i,j], но вычисления проводятся только при первом таком вызове.

Рис. 16.2 иллюстрирует экономию, достигаемую заменой Recursive-Matrix-Chain на Memoized-Matrix-Chain. Заштрихованные вершины дерева рекурсии соответствуют тем случаям, когда значение га [г, j] не вычисляется, а берётся прямо из таблицы.

Алгоритм Memoized-Matrix-Chain требует времени 0(га3), как и алгоритм Matrix-Chain-Order. В самом деле, каждая из 0(га2) позиций таблицы один раз инициализируется (строка 4 процедуры Memoized-Matrix-Chain) и один-единственный раз заполняется - при первом вызове Lookup-Chain(p, i,j) для данных г и j. Все вызовы Lookup-Chain(p, г, j) делятся на первые и повторные. Каждый из ©(га2) первых вызовов требует времени О(га) (не включая времени работы рекурсивных вызовов Lookup-Chain для меньших участков); общее время работы есть О (га3). Каждый из повторных вызовов требует времени 0(1); их число есть О (га3) (вычисления для каждой из О (га2) клеток таблицы порождают О (га) вызовов). Тем самым рекурсивный алгоритм, требующий времени £}(2п), превратился в полиномиальный, требующий времени О (га3).

Подведём итоги: задача об оптимальном порядке умножения га матриц может быть решена за время О (га3) либо «сверху вниз» (рекурсивный алгоритм с запоминанием ответов), либо «снизу вверх» (динамическое программирование). Оба алгоритма основаны на перекрытии подзадач; число подзадач есть ©(га2), и оба алгоритма решают каждую из подзадач лишь единожды.

Вообще говоря, если каждая из подзадач должна быть решена хоть раз, метод динамического программирования («снизу вверх») обычно эффективнее, чем рекурсия с запоминанием ответов, поскольку реализация рекурсии (а также проверка, есть ответ в таблице или ещё нет) требует дополнительного времени. Но если для нахождения оптимума не обязательно решать все подзадачи, подход «сверху вниз» имеет то преимущество, что решаются лишь те подзадачи, которые действительно нужны.

Упражнения

16.2-1 Сравните неравенство (16.4) с формулой (8.4), использованной при оценке времени работы алгоритма быстрой сортировки. В чём причина того, что оценки, получающиеся из этих двух рекуррентных соотношений, столь различны?

16.2-2 Как лучше искать оптимальный порядок перемножения матриц: перебирая все расстановки скобок и вычисляя количе-



[стр.Начало] [стр.1] [стр.2] [стр.3] [стр.4] [стр.5] [стр.6] [стр.7] [стр.8] [стр.9] [стр.10] [стр.11] [стр.12] [стр.13] [стр.14] [стр.15] [стр.16] [стр.17] [стр.18] [стр.19] [стр.20] [стр.21] [стр.22] [стр.23] [стр.24] [стр.25] [стр.26] [стр.27] [стр.28] [стр.29] [стр.30] [стр.31] [стр.32] [стр.33] [стр.34] [стр.35] [стр.36] [стр.37] [стр.38] [стр.39] [стр.40] [стр.41] [стр.42] [стр.43] [стр.44] [стр.45] [стр.46] [стр.47] [стр.48] [стр.49] [стр.50] [стр.51] [стр.52] [стр.53] [стр.54] [стр.55] [стр.56] [стр.57] [стр.58] [стр.59] [стр.60] [стр.61] [стр.62] [стр.63] [стр.64] [стр.65] [стр.66] [стр.67] [стр.68] [стр.69] [стр.70] [стр.71] [стр.72] [стр.73] [стр.74] [стр.75] [стр.76] [стр.77] [стр.78] [стр.79] [стр.80] [стр.81] [стр.82] [стр.83] [стр.84] [стр.85] [стр.86] [стр.87] [стр.88] [стр.89] [стр.90] [стр.91] [стр.92] [стр.93] [стр.94] [стр.95] [стр.96] [стр.97] [стр.98] [стр.99] [стр.100] [стр.101] [стр.102] [стр.103] [стр.104] [стр.105] [стр.106] [стр.107] [стр.108] [стр.109] [стр.110] [стр.111] [стр.112] [стр.113] [стр.114] [стр.115] [стр.116] [стр.117] [стр.118] [стр.119] [стр.120] [стр.121] [стр.122] [стр.123] [стр.124] [стр.125] [стр.126] [стр.127] [стр.128] [стр.129] [стр.130] [стр.131] [стр.132] [стр.133] [стр.134] [стр.135] [стр.136] [стр.137] [стр.138] [стр.139] [стр.140] [стр.141] [стр.142] [стр.143] [стр.144] [стр.145] [стр.146] [стр.147] [стр.148] [стр.149] [стр.150] [стр.151] [стр.152] [стр.153] [стр.154] [стр.155] [стр.156] [стр.157] [стр.158] [стр.159] [стр.160] [стр.161] [стр.162] [стр.163] [стр.164] [стр.165] [стр.166] [стр.167] [стр.168] [стр.169] [стр.170] [стр.171] [стр.172] [стр.173] [стр.174] [стр.175] [стр.176] [стр.177] [стр.178] [стр.179] [стр.180] [стр.181] [стр.182] [стр.183] [стр.184] [стр.185] [стр.186] [стр.187] [стр.188] [стр.189] [стр.190] [стр.191] [стр.192] [стр.193] [стр.194] [стр.195] [стр.196] [стр.197] [стр.198] [стр.199] [стр.200] [стр.201] [стр.202] [стр.203] [стр.204] [стр.205] [стр.206] [стр.207] [стр.208] [стр.209] [стр.210] [стр.211] [стр.212] [стр.213] [стр.214] [стр.215] [стр.216] [стр.217] [стр.218] [стр.219] [стр.220] [стр.221] [стр.222] [стр.223] [стр.224] [стр.225] [стр.226] [стр.227] [стр.228] [стр.229] [стр.230] [стр.231] [стр.232] [стр.233] [стр.234] [стр.235] [стр.236] [стр.237] [стр.238] [стр.239] [стр.240] [стр.241] [стр.242] [стр.243] [стр.244] [стр.245] [стр.246] [стр.247] [стр.248] [стр.249] [стр.250] [стр.251] [стр.252] [стр.253] [стр.254] [стр.255] [стр.256] [стр.257] [стр.258] [стр.259] [стр.260] [стр.261] [стр.262] [стр.263] [стр.264] [стр.265] [стр.266] [стр.267] [стр.268] [стр.269] [стр.270] [стр.271] [стр.272] [стр.273] [стр.274] [стр.275] [стр.276] [стр.277] [стр.278] [стр.279] [стр.280] [стр.281] [стр.282] [стр.283] [стр.284] [стр.285] [стр.286] [стр.287] [стр.288] [стр.289] [стр.290] [стр.291] [стр.292] [стр.293] [стр.294]