TIDK
TIDK
  • 61
  • 24 323
Arena Architektów - #3 Microsoft Fabric – przełom czy kolejny chwyt marketingowy?
W środowisku IT huczało od ekscytacji i wszyscy zalecali, by jak najszybciej zaznajomić się z „cudem technologii”, jakim jest Microsoft Fabric. Wielki szał, wielkie podekscytowanie skończyło się... no właśnie, czym?
W tym wideo odpowiadamy na najważniejsze pytania:
• Czym dokładnie jest Microsoft Fabric i jak ma wspierać organizacje?
• Jakie są poszczególne składowe platformy Fabric?
• Czy Microsoft Fabric łączy się z Power BI?
• Jakie funkcjonalności integruje Fabric?
• Jak zaopiekowany jest obszar bezpieczeństwa?
• Jak wygląda migracja z wcześniejszych rozwiązań do Microsoft Fabric?
• Czy korzystanie z Microsoft Fabric jest droższe?
• Jak wygląda współpraca Fabric z Databricks?
Dowiedz się, czy Microsoft Fabric to naprawdę rewolucja, na którą czekaliśmy.
Переглядів: 150

Відео

Arena Architektów - #2 Podsumowanie roku 2023 - najważniejsze momenty AI
Переглядів 76Місяць тому
W 2023 roku niekwestionowanym liderem napędzającym rozwój technologii stały się dane. A to wszystko za sprawą kierunku wyznaczonego przez premierę ChatGPT. Od listopada 2022 roku, kiedy pojawił się na rynku, agendy wszystkich konferencji branżowych aż huczą od hasła GenAI. W drugim odcinku Areny Architektów, Łukasz Grala, Jakub Wawrzyniak i Maciej Rubczyński, podsumują rok 2023 i najważniejsze ...
Arena Architektów #1 Microsoft Copilot w usłudze Power BI
Переглядів 952 місяці тому
Inauguracyjny odcinek Areny Architektów! W zeszłym roku mieliśmy do czynienia z wybuchem popularności takich technologii jak LLM, ChatGPT od OpenAI oraz narzędziem Copilot promowanym przez Microsoft. W pierwszym odcinku grono doświadczonych ekspertów - Łukasz Grala, Jakub Wawrzyniak, Bartłomiej Graczyk, Grzegorz Stolecki i Maciej Rubczyński, łączy tematy danych, analityki i sztucznej inteligenc...
GenAI - ChatGPT i LLM do czego i kiedy używać? (#11)
Переглядів 3122 місяці тому
Popularność i zalew informacji o GenAI, ChatGPT, LLM jest przeogromny. Niestety prowadzi to wielokrotnie do błędnych decyzji z perpektywy użycia, czy projektów realizowanych w firmach. Dlaczego tak się dzieje? Jakie ograniczenia i wady maja takie modele? Do czego ich używać a do czego nie? Czy można i warto łączyć techniki sztucznej inteligencji? Co o tym mówią raporty takich firm jak Gartner, ...
Rewolucja ChatGPT czyli o co chodzi w modelach językowych (#10)
Переглядів 2,1 тис.2 місяці тому
Pojawienie się ChatGPT to wielka rewolucja w osiągnięciach nauki nad sztuczną inteligencją. To moment, gdzie większość ludzi na świecie zrozumiało, że sztuczna inteligencja jest na wyciągnięcie ręki. Moment w którym nasza cywilizacja przekroczyła kolejną barierę, pewnie nie ostatnią. Czym tak naprawdę są LLM (duże modele językowe), jak jest w skrócie droga dojścia do tak rewolucyjnego modelu? D...
Łukasz Grala - Analitycznie o biznesie - Analityka i jej ewolucja część 2
Переглядів 1493 місяці тому
Drugi odcinek i temat czym jest analityka, analiza danych. Czyli staramy się uporządkować czy też zebrać fundamenty. ten odcinek to głównie przejście z danych do informacji i wiedzy w nich się ukrywających... Jak wygląda ewolucja analityki w organizacji. Przejście od analityki opisowej do analityki preskrypcyjnej. Gdzie znajduje swoje zastosowanie sztuczna inteligencja. Kiedy mamy już do czynie...
Analitycznie o biznesie - Analityka i jej ewolucja - część 2
Переглядів 543 місяці тому
Drugi odcinek i temat czym jest analityka, analiza danych. Czyli staramy się uporządkować czy też zebrać fundamenty. ten odcinek to głównie przejście z danych do informacji i wiedzy w nich się ukrywających... Jak wygląda ewolucja analityki w organizacji. Przejście od analityki opisowej do analityki preskrypcyjnej. Gdzie znajduje swoje zastosowanie sztuczna inteligencja. Kiedy mamy już do czynie...
Łukasz Grala - Analitycznie o biznesie - Wprowadzenie - Część 1
Переглядів 1023 місяці тому
Interesujesz się analityką? Chciałbyś uporządkować wiedzę. Jeżeli chcesz się dowiedzieć jak ważna jest analityka w organizacji? A może chciałbyś zrozumieć hasła Business Intelligence, Data Lake, Big Data, Lakehouse czy Data Mesh. To doskonała okazja. Nowy podcast i webinar o tej tematyce. prowadzi go Łukasz Grala, CEO w TIDK, MVP, mentor, futurolog. Autor podcastu "Opór jest daremny. Nadchodzi ...
Analitycznie o biznesie - Wprowadzenie - część 1
Переглядів 373 місяці тому
Analitycznie o biznesie - Wprowadzenie - część 1
Nowa Era Sztucznej Inteligencji - Reaktywacja (#09)
Переглядів 1,7 тис.3 місяці тому
Nowa Era Sztucznej Inteligencji - Reaktywacja (#09)
Sztuczna Inteligencja podwaliną Przemysłu 4.0 - wywiad z Jakubem Wawrzyniakiem
Переглядів 14210 місяців тому
Sztuczna Inteligencja podwaliną Przemysłu 4.0 - wywiad z Jakubem Wawrzyniakiem
Sztuczna inteligencja w rozumieniu klienta - wywiad z Sabiną Jarmużkiewicz
Переглядів 10410 місяців тому
Sztuczna inteligencja w rozumieniu klienta - wywiad z Sabiną Jarmużkiewicz
Sztuczna Inteligencja w medycynie - wywiad z dr Natalią Szóstak
Переглядів 30311 місяців тому
Sztuczna Inteligencja w medycynie - wywiad z dr Natalią Szóstak
Przyszłość sztucznej inteligencji a stan obecny ‐ wywiad z profesorem Mikołajem Morzym
Переглядів 323Рік тому
Przyszłość sztucznej inteligencji a stan obecny ‐ wywiad z profesorem Mikołajem Morzym
Webinar - trendy i nowości w analityce | Microsoft Build
Переглядів 394Рік тому
Webinar - trendy i nowości w analityce | Microsoft Build
Wydajność Synapse Serverless - Łukasz Grala, Jakub Wawrzyniak | Azure Summit 2022
Переглядів 1742 роки тому
Wydajność Synapse Serverless - Łukasz Grala, Jakub Wawrzyniak | Azure Summit 2022
Wieści ze świata zaawansowanych projektów analitycznych
Переглядів 292 роки тому
Wieści ze świata zaawansowanych projektów analitycznych
Data Management vs Data Governance - co to tak naprawdę oznacza?
Переглядів 1582 роки тому
Data Management vs Data Governance - co to tak naprawdę oznacza?
Konferencja Expert Summit 2021 - Koherentne rozwiązanie analityczne w organizacji dużej skali.
Переглядів 992 роки тому
Konferencja Expert Summit 2021 - Koherentne rozwiązanie analityczne w organizacji dużej skali.
AlphaGO - Złoty Graal Sztucznej Inteligencji(#08)
Переглядів 1713 місяці тому
AlphaGO - Złoty Graal Sztucznej Inteligencji(#08)
Sztuczna Inteligencja i gry (#07)
Переглядів 573 місяці тому
Sztuczna Inteligencja i gry (#07)
Boty i asystenci, czyli komunikacja maszyny z człowiekiem (#06)
Переглядів 363 місяці тому
Boty i asystenci, czyli komunikacja maszyny z człowiekiem (#06)
Sztuczna Inteligencja w biznesie (#05)
Переглядів 193 місяці тому
Sztuczna Inteligencja w biznesie (#05)
Roboty, czyli jak postrzegamy maszyny myślące (#04)
Переглядів 143 місяці тому
Roboty, czyli jak postrzegamy maszyny myślące (#04)
TIDK - obszary specjalizacji
Переглядів 1313 роки тому
TIDK - obszary specjalizacji
Krótka historia sztucznej inteligencji (#03)
Переглядів 363 місяці тому
Krótka historia sztucznej inteligencji (#03)
Co to jest sztuczna inteligencja? (#02)
Переглядів 473 місяці тому
Co to jest sztuczna inteligencja? (#02)
Gdzie jest sztuczna inteligencja? (#01)
Переглядів 523 місяці тому
Gdzie jest sztuczna inteligencja? (#01)
Przywitanie i wprowadzenie (#00)
Переглядів 403 місяці тому
Przywitanie i wprowadzenie (#00)
Inteligentne podejście do klienta [Profil klienta 360, CDP]
Переглядів 913 роки тому
Inteligentne podejście do klienta [Profil klienta 360, CDP]

КОМЕНТАРІ

  • @pydzio
    @pydzio 12 днів тому

    Koledzy informatycy bądźcie kreatywni i wymyślcie sobie inny tytuł waszego zajęcia 😉 Architekt - mistrz budowlany, to zawód mający tysiące lat tradycji. Wasz fach ma kilkanaście lat. Nie nazywajcie się proszę architektami.

    • @TIDKpl
      @TIDKpl 11 днів тому

      Osoba projektująca architekturę danych oraz architekturę rozwiązań informatycznych to też architekt. Zawód występuje już kilkadziesiąt lat. Używa się określenia składającego się z dwóch członów np Architekt Rozwiązań, albo Architekt Danych jak w przypadku tych osób. Świat ewoluuje i powstają nowe zawody. Projektowanie rozwiązań jest tak samo inżynierskim trudnym zadaniem jak architekt budowlany.

  • @arditem
    @arditem Місяць тому

    #KOSOWO 👋

  • @hovardlee
    @hovardlee Місяць тому

    Pewna słuchaczka zajmująca się logopedią zapytała czy nie sądzę, że pewne odcinki są stworzone przez ai… i czy autor w ten sposób nie bawi się ze słuchaczami oraz czy ktoś to zauważy(ł)? Ciekaw jestem, co Autor odpowie ;)

    • @TIDKpl
      @TIDKpl Місяць тому

      Teza bardzo ciekawa. Oczywiście, że nie z resztą można zobaczyć Łukasza też na podcastach z wideo, słychać że nagrywane są bez montażu, można też posłuchać wystąpień w archiwalnych odcinkach Patronautyka Radia357, gdzie Łukasz był wielokrotnie gościem. Komentarz pokazuje duży problem obecnych czasów wiarygodność treści. Jak powstawały pierwsze odcinki nie było jeszcze wtedy takich możliwości. Bardzo szybko to się zmieniło.

    • @hovardlee
      @hovardlee Місяць тому

      @@TIDKpl Tu nie chodzi o wiarygodność. Chociaż może też. Podcasty były słuchane nie na yt, więc może stąd takie złudzenie. Raczej chodziło o to czy Łukasz bawił się ze słuchaczami i pokazywał w ten sposób możliwości ai. I jak powiedziała - trochę się zawiodła ;) z uśmiechem oczywiście ;)

  • @marekgaramond4198
    @marekgaramond4198 2 місяці тому

    Mam nadzieję ,że kanał się rozwinie

  • @annabazel8625
    @annabazel8625 2 місяці тому

    Czekam na odcinek z notatnikiem!

  • @pacanosiu
    @pacanosiu 2 місяці тому

    transformator

  • @krzysztofhandzlik9273
    @krzysztofhandzlik9273 2 місяці тому

    Bardzo dobry podcast. Ciekawa perspektywa historyczna :) Dzięki

  • @marcinmajewski7627
    @marcinmajewski7627 2 місяці тому

    Ciszej sie nie da?

    • @gagaadzibum
      @gagaadzibum 2 місяці тому

      Jest dobrze. Nie narzekajcie.

  • @all-in_bet
    @all-in_bet 3 місяці тому

    Zapowiada się ciekawie. Fajnie się słucha. Leci sub, czekam na kolejne odcinki.

  • @ozdaw
    @ozdaw 3 місяці тому

    niewiem

  • @s.z.6515
    @s.z.6515 3 місяці тому

    Miło się słucha,ciekawy temat na czasie,zasubskrybowałem,zobaczymy co dalej będzie,pozdrawiam i powodzenia;)

  •  4 місяці тому

    Witajcie. Mam nadzieję, że nie będzie bana? :) 02:36 Grzegorz, to proste. Inspiracja kolorami z logo dwóch produktów: Fabric albo Databricks. Wybór architektonicznie nie będzie prosty, ale może oba na raz? Tylko nie mieszaj, bo wyjdzie kolor "konkurencji" ! ;) 29:50, 32:28, 34:50 Jakub, w punkt! To dopiero początek tej drogi i z czasem przybędzie "SaaS"owych integracji jednego-z-drugim-czy-trzecim komponentem. Ale wiecie co? Mam nieodparte wrażenie, że MS kolejny raz przespał post-rewolucję Big Data. Wiadomo, było PDW, był Polybase, (ba!) był nawet SQL BDC! Kierunek ciekawy, historia jednak pokazała, że nie po drodze z trendami. A potem miał być Synapse Gen-Z ;) No i wyszło coś dużo więcej. Moim zdaniem integracja "nieco" na siłę z Power BI to strzał w dziesiątkę, a dokładniej w stopę, obok dużego palca, prosto tam, gdzie boli. Słabo ludzie rozumieją te wszystkie lejki, łerhałzy, kql itp. Zmiana brandingu, zmiana nazw komponentów, ekranów, elementów infrastruktury... Ale jak poznają i się wszystko "zagoi", to może i biegać będzie łatwiej w tym "maratonie"? :) Pytanie tylko czy branża nie wymyśli czegoś nowego i już Delta z innymi cukierkami będzie passe za te 3-5 lat, kiedy Fabric dotrze do tej utopijnej spójności.... No bo taki Databricks, czy inny Snowflake mogą obligatoryjnie podnieść runtime i lokomotywa jedzie dalej. Co najwyżej "popraw swój kod". A w Fabric ciężar spada również na producenta, żeby cały ekosystem był jako tako spójny. Wystarczy spojrzeć jak Synapse Pipelines goniło swojego starszego brata ADF (a przecież to były produkty spod tej samej strzechy!) 33:01, 36:34 Bartek, dokładnie! Czy t-sql i jego "kompatybilność", czy "integracja" jako całość i na końcu pytanie Grzegorza ("Kiedy Fabric będzie kompletnie ukończonym produktem?") - wiemy dobrze, że marketing nieco wyprzedza technologię (samospełniająca się przepowiednia :P ) Nie było jednak dobrego czasu na start platformy i z konsekwencjami produktu względnie stabilnego, choć pełnego niekomfortowych kompromisów, trzeba nadrabiać dobrym słowem "z ambony" i wyjść z tym co jest. Na moje oko doby ruch, choć nam architektom nadaje to nieco gorzkiego posmaku w tym nawarzonym przez nich piwie ;) 38:56 Grzegorz, co do tej stabilności SSAS Multi... Wyjątek pewnie nienegujący regułę, ale opisałem kiedyś buga na blogu, zgłosiłem oficjalnie i na stackoverflow. Oczywiście nikt tego nie naprawił. ( azure.pawlikowski.pro/2019/07/18/internal-error-an-unexpected-exception-occurred-when-trying-to-filter-simple-dimension-that-has-ragged-parent-child-hierarchy-in-multidimensional-model/ ) Niestety, MS OFICJALNIE potwierdził, że nie zamierza w Azure iść w MultiDim i jedyny słuszny kierunek w erze taniego i powszechnie dostępnego RAMu to Tabular ( learn.microsoft.com/en-us/analysis-services/comparing-tabular-and-multidimensional-solutions-ssas?view=asallproducts-allversions#:~:text=you%20can%20stop%20reading%20now.%20Multidimensional%20models%20will%20not%20be%20supported%20in%20Azure%20Analysis%20Services%20or%20Power%20BI%20Premium%20semantic%20models. ) 40:47, 47:06 - Witaj w chmurze, gdzie nie masz już kontroli nad cyklem wdrażania poprawek i wersji rodem z WSUSa. W sumie to, co podsumował kolega Tomasz. Cloud to jedna nieustajaca faza 'versionless', gdzie bardzo często producent zapomina nawet wspomnieć w changelogu o wprowadzanych zmianach. Akurat PBI/Fabric uważam, że ma najlepszy opis waves i samych ficzerów/poprawek. Niemniej jednak jest to frustrujące i doskonale podzielam Twoje zdanie Grzegorz! Swoją drogą, nie wiem czy wiecie, ale Databricks formalnie w dokumentacji ficzery preview uznaje za 'ready to go live on prod'. Mają SLA, mają support, świetna decyzja! ( learn.microsoft.com/en-us/azure/databricks/release-notes/release-types#:~:text=Public%20preview-,Everyone,Support%20team,-Features%20are%20documented%20in%20the%20public%20Azure%20Databricks%20documentation.%20Preview ) 50:55 Bartek, to to jeszcze nic. Przykładowo, żeby spełnić wymagania compliance, hipaa, knf itp, trzeba szyfrować nasze klocki CMK. Jedna z podstawowych platform przechowującą istotne dane, często nawet i wrażliwe, pozwala na to dopiero od ok. $6000 miesiecznie (req 100GB/d dedicated cluster, tak, logi w Log Analytics :P). Zbieranie doświadczenia o tym co dana platforma w jakim sku potrafi, z czym zadziała, z czym nie i czy to się opłaci, jest IMO jedną z największych zmor architekta (a tych jest całkiem sporo, ale to może temat na inną, waszą?, dyskusję :) ) 53:19 Bartek, nie zapominajmy o tak trywialnej sprawie jak konieczność zalogowania do Azure aby utworzyć capacity. Zasłyszane co prawda, ale ponoć grupa projektowa potwierdziła - trzeba teraz wynieść się z portalu PBI i zaskładać capacity w Azure. Niby nic wielkiego, ale jednak nie ta strona księżyca, nie ten portal, nie ten rodzaj administracji :| Tak do brzegu zmierzając ;) Jest w tym sporo racji, że Databricks ma swoją dojrzałość, wyrobioną markę, swoje zaplecze community, sporo know-how już w głowach specjalistów i w internecie, czego nie można powiedzieć o Fabricu. Oczywiście teraz rozumiem MS czemu dogadywał się z Databricks i nawet w niego inwestował (choć "bywały" momenty, kiedy nie było im po drodze). To początek długiej drogi, na końcu której wszystko może się wydarzyć. Mamy erę generatywnej magii, nieco (za) wolno rozpędzający się świat technologii kwantowej i zdecydowanie wielu graczy na tym placu boju, więcej niż przed laty. Chociaż MS imponuje nadrabianiem strat w Gartnerze, wszyscy depczą mu po piętach. A my, userzy, nieco "zatracamy się" galopując na oślep w nadrabianiu zaległości o nowych ficzerach, dobrych praktykach, szukając optymalnych rozwiązań, które przestają być zasadne czasem nawet po kilku tygodniach... Ale taki już jest koszt innowacyjności na skalę "big". Do następnego odcinka! ;) p.s. Maciek, wbijaj szpile 'starszyznie', bo mam wrażenie, że sporo chodzi Ci po głowie, ale za mocno tamci kręcą się wokół swoich wymian piłeczek i ciężko Ci się wstrzelić :) Odwagi!

  •  5 місяців тому

    Dobrze, że Grzegorz bierze udział w rozmowach :) Może trochę ścinacie zakręty tematów, czasem zbaczając również z trasy, ale punkt widzenia osoby, która zjadła zęby na on-premie i próbuje nadrobić zaległości na szybko relatywizując swoją wiedzę w odniesieniu do chmurowej fizyki, pokazuje z czym trzeba się mierzyć na co dzień w pracy architekta z niektórymi klientami i jak tłumaczyć pewne rzeczy szerszej publiczności. Zmusza to nas też do zejścia na ziemię podczas tego całego bujania w chmurowych obłokach :) Pozwolę sobie też nieco dalej poelaborować. Technologie do rozproszonego przetwarzania w oparciu o równie rozproszone repozytoria plikowe z sukcesem wspierały big data od dawna, nie dając sobie jednak rady z koncepcjami stosowanymi w hurtowniach, które tak się składa, budujemy od lat w silnikach relacyjnych. W międzyczasie Spark i Hive całkiem sporo odmieniło w tym temacie. Idąc dalej, wprowadzenie takiej transakcyjności, jaką daje delta lake, wniosło wiele dobrego i odmieniło uciążliwy los systemów próbujących okiełznać współbieżność, wersjonowanie, choć nie zapominajmy, że on nie był pierwszy. Zachęcam Was przy okazji do poznania funkcjonalności przykładowo Apache Hudi i Iceberg. Poszerzy to horyzonty wiedzy o silnikach operujących na plikach osadzonych w data lake. Ale wracając do tematu, rozproszone systemy, czy to aplikacyjne, czy storage, niosą za sobą sporo wyzwań, których nie doświadczaliśmy w monolitach. Brak więzów integralności jest tego najprostszym przykładem. Choć jeszcze bardziej fundamentalnym jest brak choćby constrainta UNIQUE. I przy tym PK czy FK (jeśli w ogóle jest), ich znaczenie jest symboliczne, a czasem nawet zgubne (przypadek PDW/ADWH/Synapse Dedicated Pools i PK, który duplikuje dane w joinach: tinyurl.com/synapsepk ). Sporym wyzwaniem jest mimo wszystko brak bezpośredniego dostępu do danych na poziomie klastrów, sektorów, extentów, stron danych czy innych offsetów, co jest typowe dla systemów plików wykorzystywanych w bazach danych relacyjnych. Systemy plików w chmurze, takie jak Azure Data Lake, opierają się na modelu obiektowym, gdzie dane są dostępne poprzez wysokopoziomowe prymitywne REST API, który stawia na łatwość i powszechność, zapominając mocno o wydajności, którą formalnie kompensuje astronomiczną wręcz skalowalnością (chociaż kto nie osiągnął limit requestów ADLS 20k/s w porządnym lakehouse niech pierwszy rzuci kamieniem) To GIGANTYCZNIE utrudnia realizację wielu optymalnych operacji typowych dla niskopoziomowego dostępu do danych. Oznacza to, że trudniej jest realizować optymalizacje specyficzne dla systemów dyskowych, takie jak np. operacje na stronach danych czy bezpośredni dostęp do fragmentów plików. Nadal więc istnieje wyzwanie związane z optymalizacją dostępu I/O na poziomie pojedynczych rekordów. Na dodatek, tradycyjne bazy danych relacyjne oferują zaawansowane mechanizmy indeksowania (np. B-tree, hash), które pozwalają na szybki dostęp do danych na podstawie kluczy lub wartości. Synapse pozwalał w niektórych sytuacjach na indeksowanie i budowę w oparciu o rowstore i clusterd/nonclustered. Snowflake poszedł w Iceberg dla danych, ale dla większej kompatybilności pomyślał też o Unistore (poczytajcie, też ciekawy temat). Wracając do databricks/fabric i delta lake.. Różne mechaniki optymalizacji są tam stosowane, takie jak tradycyjny i nowy (liquid) clustering, ordering (z-|v-), kompaktowanie (defragmentacja? :) ) itp. Ale to optymalizacje na zupełnie innych poziomach, które przegrywają z wydajnością poczciwych baz, co niekiedy mocno zaskakuje ludzi, którzy w rozwiązaniach chmurowych poszukują mega wydajności przy mega skalowalności.. A tymczasem pobranie kilku rekordoów bez sortowania i filtrowania wymaga długich sekund operacji. Trzeba zawsze poświęcić czasu i cierpliwości na wyjaśnienie czym ten świat się charakteryzuje i na jakie kompromisy to wszystko poszło. Spodziewam się, że w najbliższej przyszłości prace nad mechaniką tych platform pójdą w kierunku zdecydowanie większej wydajności i zapewnienia obsługi zapytań na poziomie atomowym (z czasem dostępu rzędu ms), tak jak wspomniane przykłady z Synapse i Snowflake. Coś na koniec. Dla mnie osobiście największy żal, który ściska za pośladki, związany jest z BACKUPami i zapewnieniem prawdziwym odtwarzalnym Disaster Recovery. Nawet jeśli ostatecznie MS wprowadzi Azure Backup dla ADLS (tak jak zamierza to zrobić z blob storage w trybie "snapshota" do wybranego storage), wciąż będzie brakowało możliwosći zrobienia !konsystentnego! backupu, taki jaki robiony jest w silnikach relacyjnych (np w MSSQL backup stron + zrzut z dziennika aby zrobic rollback lub rollforward). Na dodatek platforma uzależniona jest od wielu komponentów, do których podejście w odtwarzaniu może być kompletnie inne, sposób sparowania z dodatkowym regionem oparty na innych zasadach i często niemożliwym do przetestowania. Repliki active-passive są ciężkie w realizacji w kontekście całych infrastruktur i nie do końca opłacalne... Czy ktokolwiek z was zastanawiał się może, co się stanie z regionem sparowanym albo nawet availability zone, jeśli dojdzie do padu? Czy mamy gwarancję capacity? Wszyscy wiemy jak obciążone są WE i NE, nie bez powodu mamy opcję capacity reserveration, czy dla usług PaaS i SaaS też ona jest przewidziana natywnie od zaplecza...? No nie wiem :) No dobra, czy doczekamy się poprawy sytuacji? Mam nadzieję, że wszystkie stajnie spod znaku Big Data znajdą na to sposób, bo im więcej ludzi przesiada się z klasycznych hurtowni, gdzie byli przyzwyczajeni do wszystkich mechanizmów silników relacyjnych w swoich hurtowniach, tym więcej pojawia się głosów niezadowolenia i zmiany decyzji co do niektórych wdrożeń. Pozdrawiam i do następnego odcinka ;)

  • @wtstara
    @wtstara 6 місяців тому

    Panowie jak zawsze w punkt. Natomiast patrzycie z perspektywy tych bardziej zaawansowanych. Czyli mamy Azure i chcemy jego elementy przenieść do Fabric. Mnie by interesowało jak z migracją w drugą stronę - mam Fabric i czy bez problemu przejdę na Azure? To jest chyba bardziej prawdopodobny scenariusz, bo Fabric wydaje się być idealnym krokiem pomiędzy brakiem Bi i pełnym BI dla średnich organizacji. To co mnie boli to teoretycznie te same elementy co w DataFactory, ale z ograniczonymi możliwościami. Takie Copy data nie ma w Fabric jako źródła Salesforce'a i co dalej? Muszę korzystać z DF.

    • @wtstara
      @wtstara 6 місяців тому

      Przy okazji, czy istnieje jakiś sposób żeby określić jaki poziom SKU będę potrzebował? Patrzę na te CU i nic mi one nie mówią

    • @TIDKpl
      @TIDKpl 5 місяців тому

      Dzięki. Fabric jest platformą w pełni realizującą duże potrzeby analityczne, w tym Business Intelligence, ale i też tematy AI, Big Data, czy RealTime

  • @BeataWolk-yw5xo
    @BeataWolk-yw5xo 11 місяців тому

    No body is pefect. Ostatnio w pracy wdrożono nam nowatorski system komputerowy ! A co na to komputer ? Szybko przekazywaną mu nową wiedzę zaczął chować do swoich ,,KIESZENI" 😂

  • @tommylub
    @tommylub 3 роки тому

    Super wykład 🙂

  • @DanielŚmigiela
    @DanielŚmigiela 3 роки тому

    brawo !