Цитата:
Сообщение от
Marik
Ситуация следующая. Есть сервер приложений на котором установлен DAX 4, есть SQL сервер, на который смотрит АОС с сервера приложений. Задача заключается в том что бы поднять ещё один SQL сервер на который будет в реал тайме клонироваться информация с основного, для того что бы делать отчёты на резервном дабы разгрузить основной сервер.
Немного о поддерживаемых способах репликации написано в заметке
Transactional Replication with AX 2009
Цитата:
Сообщение от
S.Kuskov
Способ. Настроить оба AOSa на одно и тоже приложение (папку Application). И при изменении приложения через один из AOSов запускать обновление словаря и синхронизацию на другом AOSe.
В ручном режиме?.. Кроме того, так получается, что используется одновременно две рабочих базы Аксапты, что является нарушением лицензионного соглашения.
Цитата:
Сообщение от
Владимир Максимов
Если речь идте об MS SQL, то физически репликация реализуется через триггера, которые "вешаются" на соответствующие таблицы. Но запуск синхронизации в Axapta при изменении структуры таблицы автоматически отключит все триггера. Т.е. по сути, выключит репликацию.
Не знаю, как на счет триггеров, но убиение на синхронизации тех же индексов, которых нет в приложении, но которые DBA создали в базе, вполне можно обойти за счет того, что возвращать ядру Аксапты из СУБД не всю информацию о метаданных базы.
Цитата:
Сообщение от
Индра
Я сам воевал за полную копию БД, но админ меня буквально принудил составить фиксированный список таблиц, за что я ему теперь очень благодарен, так как он-лайн репликация того же sysdatabaselog - очень веселое и бесполезное занятие.
+1. Вообще, если отчеты создаются прямыми SQL-запросами и не переписываются каждый раз, когда меняется схема данных рабочей базы (мало ли, нафиг в отчетах нужны
все новые столбцы?), то непонятно, зачем нужно реплицировать базу 1-в-1. В моем случае отчетность строится в кубах, туда периодически забираются данные из нужных транзакционных/справочных таблиц, на последних просто везде включено поле modifiedDataTime и сделаны индексы по нему, за счет чего можно быстро выбрать измененные и новые данные. Каждую ночь выгружаются изменения за день (это занимает буквально минут 10-15 при базе на порядок больше упомянутых 50-и гигов), на выходных идет полная перекачка. Если нужны данные максимум получасовой давности, так можно и перекачку запускать раз в полчаса - и выкачивать только те столбцы только тех таблиц, которые реально используются в отчетах, а не все подряд. При настроенных индексах все это проходить будет достаточно быстро.