Dyrektorzy finansowi rzadko zaglądają do panelu administracyjnego Power Platform, ale z pewnością zauważają moment, w którym faktura za subskrypcje Microsoftu gwałtownie rośnie, mimo że liczba użytkowników systemu pozostaje bez zmian. To moment krytyczny dla rentowności inwestycji w technologię. Większość organizacji w Polsce, decydując się na wdrożenie Dynamics 365 Sales czy Customer Service, skupia się na cenie licencji per user.
Tymczasem prawdziwy koszt całkowitego posiadania (TCO) kryje się głębiej. Jest nim przestrzeń dyskowa Dataverse, która w modelach chmurowych jest towarem luksusowym. Płacenie stawki Premium za przechowywanie załączników mailowych sprzed pięciu lat jest ekonomicznym odpowiednikiem wynajmowania apartamentu w centrum Warszawy tylko po to, by składować w nim stare meble.
Do niedawna jedynym rozwiązaniem było agresywne kasowanie danych. Dziś, w perspektywie roku 2026, takie działanie jest sabotażem własnej innowacyjności. Usuwając dane, odcinasz swoje algorytmy sztucznej inteligencji od kontekstu, którego potrzebują do poprawnego działania. W tym artykule pokażę Ci trzecią drogę czyli jak koszt optymalizacji storage w Dataverse może iść w parze z zachowaniem zoptymalizowanych danych.
Dlaczego Twój Dataverse puchnie szybciej niż przewidywał budżet
Architektura Dynamics 365 jest zaprojektowana tak, aby rejestrować każdą interakcję. To zaleta z perspektywy operacyjnej, ale wyzwanie dla infrastruktury. W standardowym scenariuszu wdrożeniowym baza danych zaczyna puchnąć po około 18 miesiącach od startu produkcyjnego. Odpowiadają za to nie tylko rekordy klientów, ale przede wszystkim tabela ActivityPointer, przechowująca e-maile, spotkania i zadania.
Sytuację komplikują nowości wprowadzone w ostatnich Release Waves. Microsoft Copilot Sales oraz moduły Customer Service generują obecnie znacznie więcej metadanych niż kiedykolwiek wcześniej. Automatyczne transkrypcje rozmów, podsumowania spotkań generowane przez AI oraz rozbudowane logi audytowe (Audit Logs), które są niezbędne dla Model Context Protocol, zajmują cenne miejsce w głównej bazie danych.
Typ Danych
Wpływ na Dataverse
Rekomendacja Optymalizacji
Logi Audytowe i Systemowe
Wysoki (Szybki przyrost)
Retencja > 12 m-cy do OneLake
ActivityPointer (E-maile, Zadania)
Krytyczny (50-70% bazy)
Wirtualizacja starych rekordów
Załączniki (Notes & Attachments)
Średni (File Storage)
Migracja do SharePoint lub Azure Blob
Błąd konkurencji, czyli martwe archiwum w Azure Blob
Analizując podejście wielu partnerów wdrożeniowych na polskim rynku, zauważam niepokojący trend. W obliczu problemów z wydajnością i kosztami, standardową rekomendacją jest "oczyszczanie bazy" poprzez eksport starych danych do plików płaskich lub Azure Blob Storage. Choć technicznie zwalnia to miejsce w Dataverse, biznesowo jest to rozwiązanie ułomne.
Dane przeniesione do Blob Storage stają się zimne. Są trudne do odzyskania i kompletnie nieużyteczne dla nowoczesnych narzędzi analitycznych bez budowania skomplikowanych mostów integracyjnych.
Insight Ekspercki
W 2026 roku archiwizacja nie może być cmentarzyskiem danych. Musi być ich tańszym magazynem, do którego wciąż mamy klucz. Klient odzyskuje miejsce na dysku, ale nie może tracić dostępu do historii, która w sektorze retail czy produkcji jest bardzo istotna w przewidywaniu trendów.
Strategia 2026. OneLake i wirtualizacja danych
Rozwiązaniem, które trenduje, jest Microsoft Fabric i koncepcja OneLake. Microsoft odchodzi od modelu, w którym wszystkie dane operacyjne muszą znajdować się w drogim storage’u Dataverse. Zamiast tego, promuje architekturę, w której Dataverse służy do bieżącego przetwarzania transakcji, a cała historia trafia do OneLake. To podejście pozwala na Archive Dynamics 365 to AI-Ready Fabric.
Kluczowa różnica polega na dostępności. Dane w OneLake nie są martwe. Dzięki mechanizmowi Shortcuts (skrótów), mogą być one wirtualizowane i udostępniane z powrotem do aplikacji lub narzędzi analitycznych bez konieczności ich fizycznego kopiowania. Płacisz za tani storage typu Data Lake, ale zachowujesz logiczną spójność danych.
Copilot potrzebuje historii, a nie czystej kartki
To najważniejszy argument dla zarządu. Inwestujecie w Microsoft Copilot for Sales, aby Wasi handlowcy pracowali efektywniej. Copilot potrzebuje "paliwa" w postaci danych historycznych, aby sugerować kolejne kroki czy generować trafne podsumowania relacji z klientem. Jeśli usuniecie historię sprzed dwóch lat w ramach różnych decyzji, okaleczycie również swoje AI.
Test Rzeczywisty: Jakość odpowiedzi Agenta AI
❌ Copilot (Tylko Dataverse)Brak historii
Co słychać u klienta "Retail Polska"? Jadę na spotkanie.
AI
W bieżących rekordach CRM nie widzę otwartych szans sprzedaży ani zgłoszeń z ostatnich 6 miesięcy.
Wygląda na to, że klient jest nieaktywny. Brak danych do przygotowania agendy.
✅ Copilot + OneLakePełny kontekst
Co słychać u klienta "Retail Polska"? Jadę na spotkanie.
AI
Przeanalizowałem archiwum z 5 lat (OneLake):
⚠️ Ważne: 2 lata temu mieli awarię integracji w Black Friday (Ticket #402). Spytaj, czy są gotowi na ten sezon.
📉 Trend: Zamówienia spadły o 12% r/r, mimo że wysyłali zapytania o ofertę na LinkedIn (widoczne w archiwum).
Rekomendacja: Zaproponuj audyt wydajności przed szczytem sezonu.
Ryc. 1. Porównanie odpowiedzi w zależności od dostępności danych archiwalnych (tzw. Data Grounding).
Grounding AI
Dzięki OneLake możemy "uziemić" działanie agentów AI na danych zarchiwizowanych. Copilot potrafi sięgnąć do tańszego magazynu danych, przeanalizować historię zamówień z ostatniej dekady i na tej podstawie wygenerować odpowiedź, nie obciążając drogiego Dataverse.
Scenariusze dla branży retail i produkcji
Spójrzmy na konkretne przykłady. W branży Retail sieci handlowe gromadzą miliony paragonów. Trzymanie ich w Dataverse jest ekonomicznym samobójstwem. Przenosząc historię transakcji starszą niż 6 miesięcy do OneLake, uwalniamy zasoby operacyjne CRM. Jednocześnie, dział marketingu nadal może segmentować klientów na podstawie ich 5-letniej historii zakupowej, ponieważ Fabric udostępnia te dane do Customer Insights w czasie rzeczywistym.
W sektorze produkcyjnym problemem są dane z urządzeń IoT. Serwisant jadący do awarii potrzebuje wiedzieć, co działo się z urządzeniem przez cały cykl jego życia. Wykorzystując Data Fabric, technik pyta Copilota o historię awarii, a system w ułamku sekundy przeszukuje terabajty tanich danych archiwalnych i podaje precyzyjną odpowiedź.
Podsumowując, optymalizacja kosztów storage’u w Dynamics 365 przestała być zagadnieniem czysto technicznym. Stała się wyzwaniem strategicznym. Przejście na model oparty o Microsoft Fabric pozwala zjeść ciastko i mieć ciastko. Redukujemy koszty utrzymania danych nawet o 80%, zachowując ich pełną wartość dla algorytmów sztucznej inteligencji.
Bezpłatna Konsultacja
Twój Dataverse generuje nadmiarowe koszty?
Nie kasuj historii, której potrzebuje Twoje AI. Zapraszamy na audyt architektury danych. Sprawdzimy, ile gigabajtów możesz bezpiecznie przenieść do OneLake, redukując fakturę Microsoft.
Wizjoner i entuzjasta technologii. Inspiruje organizacje do cyfrowej transformacji poprzez wykorzystanie mocy nowoczesnych technologii. Dzięki dogłębnej wiedzy na temat rozwiązań Microsoft i wyczuciu trendów pomaga firmom przekształcać śmiałe pomysły w rzeczywisty wpływ.