poniedziałek, 11 kwietnia 2011

Kupujemy firmy, żeby być liderem

Wojciech Urbanek, Redaktor naczelny portalu Storagefocus rozmawia z Włodzimierzem Kaweckim, Dyrektorem Departamentu Systemów Komputerowych w Oracle Polska oraz Maciejem Tomkiewiczem, menedżerem sprzedaży produktów serwerowych Oracle na Polskę i kraje bałtyckie.

Włodzimierz Kawecki, Dyrektor Departamentu Systemów Komputerowych w Oracle Polska


Oracle to firma, która działała przez długi czas w świecie oprogramowania. Po wchłonięciu Suna to się zmieniło. Jak ważny jest dla was hardware?

WK. Hardware jest niezwykle ważny w obecnej ofercie Oracle, stanowi bowiem jeden z elementów kompletnego rozwiązania jakiego oczekują od dostawcy dzisiejsi klienci. Oracle po przejęciu Sun Microsystems przystępuje do zupełnie nowej gry. Sun był niezależnym dostawcą, dostarczającym głównie platformę sprzętową. Natomiast w ofercie Oracle'a sprzęt stał się elementem skonsolidowanego, kompleksowego zestawu wszystkich komponentów potrzebnych do złożenia systemu informatycznego do zastosowań biznesowych. Dzięki tej synergii potrafimy rozwijać współbieżnie wszystkie elementy zestawu, a wszystko dla zwiększenia efektywności i przełamania barier, które do tej pory przed nami się pojawiały.

A jak to wygląda w praktyce?

WK. Idealnym przykładem naszej nowej strategii jest maszyna bazodanowa Exadata oraz platforma aplikacyjna zwana Exalogic. Wymienione rozwiązania powstały wyłącznie dlatego, że na rynku pojawił się dostawca posiadający wszystkie elementy warstwy systemowej - począwszy od pamięci masowych, poprzez serwery, systemy operacyjne, warstwę middleware, bazy danych, aż po aplikacje. Rynek przez wiele lat rozwijał się w ściśle oddzielonych od siebie segmentach – aplikacji, baz danych, serwerów, czy storage'u. Dopiero urządzenia typu Exadata pozwoliły w pełni wykorzystać możliwości różnych, rozwijających się dotąd osobno technologii, wykorzystując najlepiej dostępne mechanizmy. Takie całościowe podejście do systemów informatycznych nie było dotąd możliwe – dopiero fuzja firm Sun i Oracle stworzyła odpowiednie po temu warunki.

Jaką rolę zamierza odgrywać Oracle na rynku pamięci masowych?

WK. Oracle kupuje firmy, aby być liderem w określonych obszarach – jest to kierunek rozwoju, który niewątpliwie będziemy kontynuowali. Zakup Sun'a, który wcześniej kupił StorageTek'a - jest typowym przykładem takiej strategii. Jeden z najważniejszych przykładów świadczących o słuszności tego podejścia w odniesieniu do systemów pamięci masowych jest tiered storage, rozwiązanie pozwalające na odpowiednie przemieszczanie się danych pomiędzy różnymi warstwami i technologiami składowania. Implementacja tiered storage wymaga dokładnej analizy, stworzenia zespołu projektowego, czy sortowania danych... ogólnie mówiąc wymaga ścisłej współpracy dostawców sprzętu i oprogramowania. Widać zatem, że obecnie Oracle jest idealnie przygotowany do takich projektów. Nasze doświadczenie pozwala określić zarówno rodzaj danych, jak ich pochodzenie; możemy ocenić, jak długo żyją w systemie, wskazać które z nich są krytyczne. Dopiero mając taką wiedzę, można zaoferować w ramach systemów otwartych prawdziwą racjonalizację wykorzystania zasobów w obszarze pamięci masowych. Dziś jeszcze klienci biznesowi chętnie sięgają po systemy high-end. Ale już wkrótce nadejdzie taki moment, kiedy okaże się, że tego typu produkty w wielu przypadkach są zbędne. Do składowania e-maili czy danych pochodzących sprzed kilku miesięcy nie są potrzebne kosztowne macierze. Badania dowodzą, że dane przechowywane w systemie tej klasy z reguły po trzech miesiącach przestają być danymi krytycznymi i mogą być przesunięte na tańsze nośniki. Oracle jest dziś w stanie skutecznie zaprojektować optymalną warstwę storage, mając w ofercie nie tylko różne typy sprzętu, ale co najważniejsze – mogąc ściśle skorelować warstwę hardware z warstwą aplikacji.

Branża pamięci masowych podąża w kierunku Unified Storage. Czy to dobra droga?

WK. Unified Storage to oferta dla tych, którzy nie muszą inwestować w rozwiązania high-end, natomiast potrzebują najbardziej zaawansowanych funkcjonalności - takich, jak zdalna replikacja danych czy deduplikacja. Warto przypomnieć, że prekursorem rozwiązań Unified Storage była firma Sun - w ofercie Oracle znajdują się systemy z grupy ZFS-Storage (nazwa pochodzi od Zetabyte File System) które są ich udoskonalonym sukcesorem. Funkcjonalność rozwiązań, które oferujemy jest bardzo bogata, a ZFS Storage jest - obok taśm, jednym z naszych flagowych produktów, na którego rozwój Oracle przeznacza ogromne nakłady.

Skąd tak duże przywiązanie Oracle do taśm. Wielu vendorów odchodzi od tej formy przechowywania danych.

WK. Patrzymy na te próby odchodzenia, trwają one już około 15 lat i - jak widać gołym okiem, są niezbyt udane. Od taśmy trudno odejść - to jedyny nośnik, który można schować w szafie, nie kręci się bez przerwy, nie pobiera prądu i przy odpowiednim traktowaniu daje możliwość odzyskania danych sprzed dziesiątków lat. Ma też dłuższy czas życia na rynku, bowiem standardy, którymi się posługuje muszą zapewnić odczytywalność bardzo wiekowych dokumentów. Pamiętajmy też, że współczesne systemy taśmowe oferują odporność na błędy większą od dysków o 5 (słownie "pięć") rzędów wielkości! MT. Taśmy wciąż mają jedną wielką zaletę i funkcjonalność, której nie możemy zapewnić stosując dyski klasyczne - dane zapisane na taśmie podczas przechowania nie pobierają prądu. Jakiekolwiek zaawansowane technologie byśmy nie stosowali (jak np. zwolnienie prędkości obrotowych pracy dysku podczas braku operacji na nim itp.) taśma wiąż postanie nie do zastąpienia w wielu zastosowaniach. A energia będzie drożeć, tego możemy być pewni. Zatem zapisanie danych właśnie na taśmie zapewnić nam może spore oszczędności - zarówno dzisiaj, jak i w przyszłości.

Oracle próżno szukać w pierwszej piątce największych producentów macierzy dyskowych. Rywale wykorzystali zawirowania wokół przejęcia Suna i trochę wam uciekli.

WK. Turbulencje związane z akwizycją Suna były i nie ukrywamy tego. Ale mamy ten okres już za sobą. Jak wspomniałem wcześniej, Oracle zamierza się skupić głównie na rozwiązaniach tiered storage, w które bardzo wierzymy. Pracujemy także nad powrotem do segmentu macierzy. Oracle wydaje ogromne sumy na rozwój, takie kwoty byłyby niedostępne dla Sun'a. Z drugiej jednak strony modyfikujemy zachowania rynku. Mamy pewną misję do wykonania i staramy się pokazywać alternatywę. Chcemy, żeby rynek ją rozważył. MT. Do tej pory storage był rozpatrywany w dwóch kategoriach: pojemności dysków i parametrów I/O. My postrzegamy przechowywanie danych trochę inaczej. Dla Oracle pojęcie storage, to nie tylko hardware. W wielu przypadkach oprogramowanie bardziej decyduje o przydatności i wydajności pamięci masowych. Zwróćmy uwagę, że nowoczesne macierze oferują coraz to nowe funkcjonalności właśnie w obszarze dodatkowego oprogramowania, podczas gdy technologie samych dysków, czy podsystemu I/O pozostają niezmienne. Dla nas ważne jest odpowiednie zarządzanie danymi, umieszczenie ich na odpowiednich nośnikach w zależności od czasu życia danych. Nie ścigajmy się na gigabajty czy wskaźniki IOPS, skupmy się na danych.

Czyli przeliczenie ceny systemów na gigabajty to nienajlepsza metoda?

WK. Oracle pokazuje sprawność funkcjonowania systemów poprzez efektywność funkcjonowania końcowego narzędzia, będącego końcowym doświadczeniem użytkownika, który w ten sposób ocenia efektywność całego rozwiązania. Mając w ofercie wszystkie wymienione wcześniej warstwy jesteśmy w stanie zaoferować rozwiązania szybsze nie o 10 PROCENT, jak to dzieje się w przypadku procesorów; mówimy o rozwiązaniach takich, jak np. Exadata, które są 10 RAZY szybsze od dotychczasowych rozwiązań, dzięki zasadniczej zmianie filozofii rozwiązania. I to jest to, czym chcemy przekonywać do siebie rynek. Nie oznacza to jednak, że nie mamy oferty tradycyjnej. Mamy dobrą ofertę storage, serwerów i jesteśmy w stanie konkurować ze wszystkimi dostawcami. Niedawno zaprezentowaliśmy szesnastordzeniowy serwerowy procesor SPARC T3, a nasz najnowszy system operacyjny - Solaris 11 - może pochwalić się ponad 400 rozszerzeniami. MT. W zakresie niezależnych testów istnieje wiele wskaźników takich jak SPEC, TPC-C, TPC-H, SAPS, itd. Który z nich jest najlepszy, czy też najbardziej odpowiedni? Trudno odpowiedzieć, gdyż są to testy wykonywane w warunkach laboratoryjnych, w których nie tak łatwo odwzorować charakter aplikacji klienta. Niemniej jednak, Oracle przeprowadził testy TPC-C, w których nasz produkt SUPER Cluster osiągnął wynik 30 milionów operacji na minutę; następny w kolejności system IBM wykonuje tych operacji około 10 milionów. Jak widać potrafimy budować systemy osiągające świetne wyniki w testach, chociaż naszym głównym zadaniem jest budować wydajne systemy dla biznesu.

Wiele wskazuje, że już niedługo vendorzy walczyć będą w chmurach. Jak Panowie postrzegają rozwój tego modelu?

WK. Dostrzegam w tym przypadku analogię z wirtualizacją. Jeszcze pięć lat temu mówiło się o wirtualizacji jako o eksperymencie technologicznym. Dziś - kiedy patrzymy na wirtualizację to widać, że z etapu przygody technologicznej przeszła do fazy biznesowej konieczności. Wszyscy zrozumieli, że model oderwania instancji systemu operacyjnego od warstwy sprzętowej jest całkowicie logiczny i uzasadniony. Z kolei w modelu cloud pojawia się postulat, aby używanie zasobów IT nie było tożsame z ich posiadaniem. Jest on także bardzo logiczny. Nie trzeba budować browaru, żeby napić się piwa. Cloud Computing nie jest technologią, a raczej wspartym na technologii projektem organizacyjnym, który od strony platformy wymaga sprawnego uruchamiania kupionej usługi oraz weryfikowalnej wyceny. Rozwój chmury publicznej jest w znacznym stopniu uzależniony od wprowadzenia uwarunkowań formalno-prawnych. Natomiast chmura prywatna jest dostępna już dziś i może być z powodzeniem wykorzystywana przez duże koncerny i organizacje rządowe. MT. Coraz więcej mówimy o modelu przetwarzania cloud. Nie możemy stanąć z boku i powiedzieć, że on nas nie dotyczy. Trudno też jednoznacznie stwierdzić, kiedy tak naprawdę ten model do nas dotarł. Zakładane kilkanaście lat temu konta na Hotmail, to usługa bazująca na chmurze. Możemy cofnąć się jeszcze bardziej w przeszłość. Rok 1984 w którym światło dzienne ujrzał protokół NFS, to przecież także cloud. Dziś stoimy przed poważnymi wyzwaniami w tej dziedzinie - takimi, jak kwestie legislacyjne, czy bezpieczeństwo danych. Nie mniej istotna jest również kwestia zapewnienia możliwości powrotu z chmury do modelu tradycyjnego oraz przenoszenie usług pomiędzy różnymi dostawcami.

Wywiad ukazał się 7 kwietnia 2011 roku w serwisie Storagefocus.pl


Brak komentarzy:

Prześlij komentarz