11.08.2020, 13:07 | #20 |
Участник
|
По поводу экспорта данных в ажур, вот что я пока уловил - каждый день надо мониторить, что-то выходит в прод, что-то в превью.
Вот тут есть статья, может уже не самая актуальная, как использовать change racking + azure data flow для перемещения дельты в azure data lake (по сути в blob storage). https://docs.microsoft.com/en-us/azu...feature-portal В примере используется azure sql database, но это на самом деле не критично, был вэбинар, где они настраивали это попроще - скриптами для локальной базы. А что касается DAX 365 - там вообще этот экспорт встроен в систему. https://docs.microsoft.com/ru-ru/dyn...tore-data-lake Но цель одна - выгрузить sql данные в azure blob (считай - .CSV). Потому что стоимость хранения blob на порядок (а может и два) меньше, чем в azure sql базе. И МС понял, что хранить все данные мира в реляционном виде - ту мач даже для них ) И дорого для клиентов, и не нужно для питания отчетности. Дальше вараинты - вы строите модель в power bi прям из этих "csv" - вы докупаете azure synapse (облачный sql движок, оплачивается по фактическому использованию), в котором можно напилить вьюхи поверх этих csv и дальше обращаься к ним на языке T-sql, как к обычным sql таблицам, и так же строите модель поверх этих вьюх. Последний раз редактировалось imir; 11.08.2020 в 13:27. |
|