Optymalizacja IT
1
2
Spis treści
Optymalizacja jest koniecznością
6
5 kroków budowania zespołu wg Łukasza Kruczka
Barbara Mejssner, it-manager.pl
12
Redukcja kosztów w IT
15
Jak mierzyć efektywność IT
Stanisław Matczak
18
Efektywne zarządzanie informacją to największy kapitał w biznesie
Rafał Jakubowski
22
Przewaga dzięki specjalizacji
Piotr Rojek, DSR Sp z o.o.
28
Outsourcing: prościej, bezpieczniej, taniej
Robert Paszkiewicz, ATM S.A.
34
Optymalizacja, oszczędności i transformacja w obszarze danych
Urszula Jaworska
38
Najważniejsze są relacje
Krzysztof Jarosz w rozmowie ze Stanisławem Bochnakiem oraz Robertem Jesionkiem
42
Lean IT – doskonalenie na wiele sposobów
Rafał Nessel, Deloitte Polska
46
Pięć kroków skutecznej restrukturyzacji IT
Asish Ramchandran, Joseph Joy, Varun Joshi, Shomic Saha, Deloitte Consulting LLP
50
3
Optymalizacja na portalu it-manager.pl
Model usług telco do przedefiniowania
54
Hamulec cyfrowej transformacji
54
Lean IT – produktywność i efektywność w organizacji
55
Jak obniżyć koszty backupu
55
Miliony stracone na licencjach
56
Szukając większej efektywności
56
Innowacyjność a wyniki finansowe
57
Styczeń 2015
Redaktor naczelny: Robert Jesionek
Współpraca redakcyjna: Barbara Mejssner
Projekt graficzny i skład: Monika Bucoń
4
Więcej niż dyskusja o IT
www.it-manager.pl/deloitte/cio-programme
© 2014 Deloitte Polska
5
Optymalizacja jest koniecznością
Badanie IDC przeprowadzone na zlecenie firm Oracle oraz Intel wskazuje, że na pierwszym
miejscu priorytetów dyrektorów IT w regionie Europy Środkowo-Wschodniej na rok 2015
znajduje się optymalizacja procesów biznesowych.
Firmy z Europy Środkowo-Wschodniej w dalszym
ciągu odczuwają skutki ostatniej recesji na
świecie i kryzysu w strefie euro. Po niedawnym
spowolnieniu gospodarki, przedsiębiorstwa
wprowadziły ścisłą kontrolę wydatków, zadbały
o wsparcie procesów biznesowych, a także
wyeliminowały programy i projekty niemające
bezpośredniego związku z zyskiem.
Trudne środowisko sprawiło, że firmy ponownie
analizują swoje priorytety biznesowe i strategiczne.
Kładą przy tym większy nacisk na optymalizację
środowisk informatycznych i procesów.
W połączeniu z szybszym tempem opracowywania
technologii jest to źródłem zasadniczej zmiany
roli dyrektora ds. informatycznych (CIO), który
ma już nie tylko wspierać rozwój biznesowy
i innowacyjność, ale wręcz być ich motorem.
Badanie IDC
Firma IDC zrealizowała niedawno badanie
z udziałem 180 dużych przedsiębiorstw, w ramach
którego przeprowadzono 200 ankiet z dyrektorami
ds. informatycznych i dyrektorami generalnymi (CEO)
podmiotów działających w Europie ŚrodkowoWschodniej. Celem badania była analiza aktualnych
strategii informatycznych i sposobów stosowanych
przez dyrektorów ds. informatycznych, aby sprostać
konieczności optymalizacji infrastruktury IT,
a jednocześnie wspierać szersze strategiczne
potrzeby biznesowe swoich firm.
Analitycy IDC stwierdzili, że budżety IT są
wprawdzie w dalszym ciągu pod ścisłą kontrolą,
a normą wciąż są standardowe, przyrostowe
6
poprawki i aktualizacje posiadanej infrastruktury,
jednak dyrektorzy dążą do bardziej kompleksowego
przekształcenia środowisk informatycznych w skali
całego przedsiębiorstwa. Taka transformacja
ma im pozwolić dotrzymać kroku nieprzerwanie
zmieniającym się potrzebom biznesowym firm.
Badanie wykazało, że czołowe priorytety
strategiczne w regionie na nadchodzący rok
to przede wszystkim optymalizacja procesów
biznesowych, na dalszych miejscach znalazły się:
redukcja kosztów oraz kwestia poprawy jakości.
Stwierdzono także, iż dyrektorzy IT są skłonni
zrestrukturyzować swoje środowiska IT, aby lepiej
sprostać wyzwaniom nowych czasów. Taka
transformacja może być dokonana za pomocą
szerokiej adaptacji najnowszych osiągnięć IT –
takich, jak chmura, mobilność, big data oraz
nowoczesna platforma bazodanowa, która
poradzi sobie z czekającą nas w najbliższym
czasie eksplozją danych.
Kontrola kosztów przez optymalizację
Należy zaznaczyć, że w tle wszystkich
wymienionych priorytetów kryje się nacisk
na zyski, przez co współczesnym dyrektorom
ds. informatycznych trudno jest niekiedy sprostać
stawianym przed nimi wyzwaniom. Oczekuje się
od nich, że przez poprawę procesów biznesowych
pomogą zwiększać przychody. Jednocześnie muszą
jednak utrzymać koszty niezbędnej infrastruktury
i rozwiązań pod ścisłą kontrolą. Nawet jeśli sytuacja
gospodarcza się poprawia, budżety działów
informatycznych rosną o nie więcej niż 1–2%,
przy czym nawet ta skromna podwyżka wynika
w głównej mierze z faktu, że po latach obniżek
nie można już dalej ignorować pewnych potrzeb.
Typową metodą na kontrolowanie kosztów było
zawsze negocjowanie niższych cen z dostawcami
rozwiązań IT. Z danych IDC wynika, że umowy
dotyczące świadczenia usług informatycznych
w Europie Środkowo-Wschodniej mają dziś
krótszy okres obowiązywania i stały się bardziej
ukierunkowane – dotyczą pojedynczych kwestii
lub wyzwań biznesowych bądź informatycznych.
Takie podejście jest jednak krótkowzroczne i zaczyna
ograniczać elastyczność działów IT, ponieważ
kupowanie rozwiązań na podstawie udzielanych
rabatów przyczyniło się do pofragmentowania
środowisk informatycznych. Co więcej, podejście
to nie koncentruje się aktywnie na obszarach,
które mogą pomóc w generowaniu przychodów.
Jak wskazuje badanie IDC, wśród przedsiębiorstw
pojawia się ostatnio bardziej perspektywiczny
sposób myślenia. Aby zrobić więcej – lub wykonać
nowe zadania – mniejszym kosztem, można
zrestrukturyzować i zoptymalizować środowisko IT.
Źródłem transformacji jest ewolucja
Połączenie kontroli kosztów i konieczności
zwiększania prężności działania przedsiębiorstwa
przyczyniło się do zmiany sposobu myślenia wśród
decydentów z działu IT. Charakteryzuje się on
naciskiem na to, aby robić więcej – i wykonywać
nowe zadania – mniejszym kosztem.
Natychmiastowa zmiana jest jednak dla większości
przedsiębiorstw z Europy Środkowo-Wschodniej
trudna. Powszechnie stosowane są starsze systemy,
oceniane jako „wystarczająco dobre”. Stworzone
w firmie i na zamówienie aplikacje mogą być
trudne do zintegrowania ze standardowymi
rozwiązaniami. Większość dyrektorów
ds. informatycznych stawia więc na podejście
długofalowe. Z badania IDC w regionie
Europy Środkowo-Wschodniej wynika, że CIO
prowadzą swoje środowiska w kierunku większej
optymalizacji przez m.in. następujące działania:
• Upraszczanie. W Europie ŚrodkowoWschodniej firmy muszą się dziś zmierzyć
z prawdziwym tsunami usystematyzowanych
i nieusystematyzowanych danych napływających
z lokalizacji zdalnych. Liczne badania dowodzą,
że same koszty pamięci masowej mogą
sięgnąć nawet 10% wydatków działu IT.
Aby sprostać ilości, szybkości napływania
i różnorodności danych, przedsiębiorstwa
stawiają na upraszczanie, które stało się ich
głównym priorytetem. Jak skomentował dyrektor
ds. informatycznych z jednego z polskich
przedsiębiorstw energetycznych, „infrastruktura IT
i liczne starsze systemy oznaczają wysokie koszty
serwisowania”. Sytuacja ta często prowadzi
do powstania wąskich gardeł w procesach
informatycznych i biznesowych. Aby poradzić
sobie z tą sytuacją, dyrektorzy ds. informatycznych
zmniejszają liczbę systemów i tworzą środowiska
oparte na usługach internetowych.
• Konsolidacja – jako strategiczna reakcja
na nadmierne rozrastanie się infrastruktury
informatycznej i konieczność wymiany starszych
systemów. Zwykle rozpoczyna się ona od planu
zgromadzenia serwerów i pamięci masowej
w jednej lokalizacji. Jej celem jest też zmniejszenie
całkowitej ilości zasobów informatycznych.
Ok. 86% ankietowanych przedsiębiorstw
skonsolidowało już swoje centra przetwarzania
danych w jednej lokalizacji. Konsolidacja tego
typu może poprawić stopień wykorzystania
pojemności, wyeliminować zbędną nadmiarowość
oraz duplikację systemów i pamięci masowej,
a także zmniejszyć zużycie energii.
Kluczowym elementem konsolidacji jest
wirtualizacja serwerów i pamięci masowej,
ponieważ może ona pomóc usprawnić
7
administrowanie systemami i umożliwia
korzystanie z konsoli, monitorowanie,
pomiary i obciążanie opłatami. Wszystko to
stwarza podstawy dla wdrażania zasobów
informatycznych w chmurach prywatnych
i publicznych, w których można efektywnie
łączyć aplikacje (bezpośrednio lub przez
warstwę pośrednią) z bazą danych i źródłami
informacji napływających w czasie rzeczywistym,
co pozwala przeprowadzać złożone analizy
ukierunkowane na poprawę obsługi klienta.
Ok. 46% dyrektorów ds. informatycznych
z regionu jako najważniejszą zaletę chmury
wskazało większą elastyczność, wielu wydaje się
też myśleć perspektywicznie i prowadzić swoje
systemy w tym kierunku.
Stan transformacji przedsiębiorstw
Konsolidacja
86%
Wirtualizacja
79%
Monitorowanie i mierzenie
72%
Samoobsługowe
udostępnianie zasobów
58%
Samoobsługowe
udostępnianie katalogu usług
43%
Źródło: IDC, 2014 – na podstawie 186 ankiet
8
• Samoobsługa. Dyrektorzy ds. informatycznych
w dużej mierze dostrzegają, że automatyzacja
procesów i zapewnienie praw administracyjnych
menedżerom spoza obszaru IT może znacznie
zwiększyć efektywność tworzenia kont
użytkowników, przyznawania uprawnień
i udostępniania podstawowych narzędzi.
Ponad 60% ankietowanych wdrożyło pewną
formę samoobsługowego udostępniania
zasobów, a 40% – katalog usług.
Nowe wyzwania, nowe możliwości
Ponad 80% ankietowanych dyrektorów IT
przyznało, że rozwiązania informatyczne są
kluczowe dla obniżania kosztów biznesowych.
Wyjaśnia to, dlaczego wdrażanie i modernizację
systemów ERP, CRM, HCM oraz innych aplikacji
biznesowych wymienia się wśród najważniejszych
priorytetów działu IT. Rozwiązania te odgrywają
decydującą rolę w optymalizacji procesów
biznesowych i pośrednio wpływają na obniżanie
kosztów, a należy pamiętać, że oba te zagadnienia
należą do najważniejszych priorytetów firm.
Co więcej, 38% przedsiębiorstw w Europie
Środkowo-Wschodniej inwestuje w oprogramowanie
do analizy danych biznesowych i przeprowadzania
innych analiz (w tym analiz big data), aby móc
łatwiej wskazywać możliwości optymalizacji
funkcjonowania przedsiębiorstwa i procesów.
Narzędzia do analizy danych biznesowych
stosowane dla systemu CRM, systemu do
zarządzania procesami czy systemów finansowych,
a także danych dotyczących poziomu wykorzystania
infrastruktury lub szczegółowych informacji
od klientów, mogą być też jednak wdrażane
równolegle we wszystkich tych systemach.
Istotne inwestycje wiążą się też z mobilnością –
ok. jedna trzecia dyrektorów ds. informatycznych
stwierdziła, że jest to w ich wydatkach jeden
z najważniejszych priorytetów. Narzędzia mobilne
Korzyści z chmury publicznej lub prywatnej
Większa elastyczność
Mniejsza bariera wejścia
Szybkie wdrożenie
Mniejsze koszty osobowe w dziale IT
Niższy całkowity koszt posiadania (TCO)
0%
10%
20%
30%
40%
50%
Źródło: IDC, 2014 – na podstawie 186 ankiet
można wykorzystać nie tylko do zapewnienia dostępu
do systemów przedsiębiorstwa z odległych lokalizacji,
ale także do generowania dodatkowych informacji
na temat wydajności zespołów handlowych
i łączności, a także wydatków na komunikację.
Nadchodzi rewolucja
Choć wielu dyrektorów ds. informatycznych,
którzy wzięli udział w ankiecie IDC, niechętnie
używa terminu „chmura”, liczby sugerują, że firmy
idą w kierunku wdrażania technologii cloud
computing. Coraz więcej, bo 32%, korzysta już
ze środowiska chmury prywatnej lub hybrydowej,
16% używa natomiast infrastruktury chmury
publicznej i/lub aplikacji udostępnianych
w chmurze tego typu. Choć tylko nieco poniżej
10% ankietowanych przyznaje, że stosuje aplikacje
dostępne w chmurze publicznej, oprogramowanie
jako usługa (SaaS) stanie się w najbliższych latach
nowym modelem podstawowym.
Oprócz znacznego uproszczenia administrowania
aplikacjami, platformami (w tym bazami danych)
i infrastrukturą, modele oparte na chmurze
umożliwiają szybkie opracowywanie
i wdrażanie aplikacji biznesowych. Niezależnie
od tego, czy odbywa się to wewnętrznie,
czy za pośrednictwem dostawcy rozwiązań
informatycznych – chmura otwiera drzwi
eksperymentom, innowacjom i ściślejszej
integracji oprogramowania z infrastrukturą,
co może prowadzić do wypracowania trwałej
przewagi nad konkurencją i znacznie zwiększyć
zyski przedsiębiorstwa. Proces ten oznacza więc
w ostatecznym rozrachunku uproszczenie, które
pozwala wymienić mało wydajne maszyny i systemy
przy jednoczesnym ograniczeniu ich liczby.
Społecznościowe narzędzia biznesowe, Internet
i konsumeryzacja branży informatycznej w wyniku
dużego wzrostu popularności smartfonów i tabletów
sprawiły, że w przedsiębiorstwach pojawił się
nowy typ użytkownika, który jest przyzwyczajony
do mobilności, nieustannego kontaktu ze
znajomymi, rodziną i firmą oraz dostawania tego,
co chce – wtedy, gdy tego potrzebuje. Wśród
firm działających w segmencie B2C wywołało to
9
olbrzymią presję na zapewnienie klientom obsługi
za pośrednictwem wszystkich kanałów. Banki,
sklepy detaliczne, operatorzy telekomunikacyjni,
usługodawcy, przedsiębiorstwa komunalne i zakłady
komunikacji miejskiej, linie lotnicze, hotele –
wszystkie te firmy i instytucje muszą w czasie
rzeczywistym udostępniać informacje w swoich
serwisach internetowych, aplikacjach, telecentrach,
kioskach, komunikatorach i za pośrednictwem
swoich pracowników w oddziałach. Działanie
w dowolnym punkcie musi być natychmiast
rejestrowane we wszystkich pozostałych obszarach,
aby zapewnić klientowi płynną obsługę również
przy zmianie kanału.
Szybkie tempo transformacji
średni roczny wzrost
usług chmurowych
w krajach CEE
należących do UE
tyle razy szybciej rosną
wydatki na big data
w porównaniu do
wzrostu rynku IT
wzrost rozwiązań
społecznościowych na
rynkach Unii Europejskiej
obywateli krajów
CEE posiada
smartfony
Źródło: IDC, 2014
CEE = kraje Europy Środkowo-Wschodniej
Tak więc kolejną rewolucyjną zmianą w działaniu
przedsiębiorstw jest takie przekształcenie
systemów, aby uzyskać maksymalną szybkość
reagowania, która musi być zapewniona
w dwóch aspektach: w przypadku transakcji
(lub transmisji danych) i zdolności błyskawicznego
opracowywania nowych produktów i usług.
Perspektywa IDC: przychody w chmurze
Przedsiębiorstwa w regionie Europy ŚrodkowoWschodniej są jeszcze na początkowym etapie
transformacji swoich środowisk IT. Rynek chmur
publicznych i rozwiązań SaaS rośnie jednak
o ok. 30% rocznie, IDC spodziewa się więc,
że za trzy lub cztery lata sytuacja będzie całkiem
odmienna. Dyrektorzy ds. informatycznych, którzy
stawiają na model oparty przede wszystkim
na chmurze i go wdrażają, pomagają swoim
przedsiębiorstwom (i swoim karierom zawodowym)
wyraźnie wyprzedzić konkurencję.
Duże międzynarodowe przedsiębiorstwa z branży IT
poświęciły lata na opracowanie gotowych
produktów służących konkretnym potrzebom
biznesowym. Nawet przy stosunkowo atrakcyjnych
kosztach pracy w Europie Środkowo-Wschodniej
wewnętrzne opracowywanie i obsługiwanie
systemów może kosztować więcej niż skorzystanie
z usług firmy zewnętrznej. Aplikacje zawsze będzie
trzeba dostosowywać do niestandardowych
potrzeb, jednak systemy HCM, SCM, CRM oraz
rozwiązania podatkowe i księgowe, narzędzia
do zarządzania dokumentami, bazy danych,
platformy, pamięć masowa i inne rozwiązania
infrastrukturalne można zwykle skonfigurować
i uruchomić znacznie szybciej, gdy wszystkim tym
zajmie się doświadczony dostawca zewnętrzny.
Opracowano na podstawie IDC White Paper:
Driving Business Growth and Innovation: The Next Step for CIOs in Central and Eastern Europe
10
Paweł Szymczak,
Dyrektor Działu Oracle Support odpowiedzialny za Polskę
Optymalizacja IT to bardzo szeroki temat, którym zajmuje się także dział Asysty Technicznej
Oracle. Każdy użytkownik naszych rozwiązań, który ma aktywną usługę Oracle Premier Support,
ma do dyspozycji kilka ścieżek pozwalających na optymalizowanie zarówno systemu jako
całości, jak też jego poszczególnych komponentów. Dział Oracle Support stosuje w swojej pracy
podejście proaktywne, co oznacza, że nie tylko reaguje na określone zgłoszenia od użytkowników,
ale proponuje rozwiązania problemów, zanim jeszcze one wystąpią. W większości umów mamy
ustalony taki poziom usługi, że po znalezieniu możliwości usprawnienia systemu, odpowiednie
czynności są od razu wykonywane.
Jednym z procesów optymalizacji które oferujemy, jest możliwość korzystania z modelu
samoobsługi, dzięki której wiele zadań związanych z utrzymaniem systemów Oracle odbywa
się automatycznie. Pracujące u klientów nasze instalacje, posiadają wyspecjalizowane narzędzia
pakietu Oracle Configuration Manager, które analizują konfigurację systemu IT i potrafią
zasugerować użytkownikom zmiany zwiększające jego poziom optymalizacji. Dodatkowo Asysta
Techniczna Oracle otrzymuje zdalnie sygnał o problemie i sugeruje strojenie systemu, informując
użytkownika drogą mailową o podjętych czynnościach. Może to być zmiana parametrów
systemu lub instalacja odpowiednich aktualizacji, dzięki którym system będzie działał sprawniej.
Oprócz stosowania aktualizacji fabrycznych, dostarczanych przez Korporację, mamy możliwość
przygotowania sprofilowanej aktualizacji dla konkretnego użytkownika, z uwzględnieniem
wszystkich uwarunkowań i specyficznych cech pracującego u niego systemu.
Bardzo szeroko stosujemy także metodę kształcenia użytkowników do obsługi rozwiązań Oracle,
wierząc że w każdej organizacji dobrze wyszkolony zespół IT potrafi najlepiej zarządzać procesami
optymalizacji własnych systemów. Udostępniamy bezpłatnie setki szkoleń online, dzięki którym
użytkownicy mogą na bieżąco aktualizować swoją wiedzę na temat produktów Oracle,
jakie u nich są zainstalowane.
Od niedawna dostępna jest także specjalna ścieżka szkoleń, należąca do grupy zwanej Akredytacją.
Szkolenia tej kategorii kończą się swego rodzaju egzaminem, potwierdzającym konkretne
umiejętności specjalistów działu IT klienta. Certyfikat akredytacyjny jest świadectwem, że inżynier
posiada wiedzę pozwalającą najskuteczniej korzystać z narzędzi Oracle Support, dla jeszcze
sprawniejszego rozwiązywania wszystkich problemów z optymalizacją systemów i jego elementów.
W ramach Asysty Technicznej działa zespół Oracle Advanced Customer Support (ACS), który
ma jeszcze większe możliwości optymalizowania systemów u klientów. Ponieważ ACS udostępnia
użytkownikowi dedykowanych ekspertów, opiekujących się konkretną instalacją i posiadających
dogłębną wiedzę na jej temat, każde działanie wykonywane jest znacznie szybciej. Ponadto
w ramach swoich usług ACS może wykonać dla klienta tzw. Proof of Concept, aby sprawdzić
nowe możliwości optymalizacji jego systemu IT. Dzięki temu jest możliwe przetestowanie wielu
zaawansowanych możliwości optymalizowania – takich, jak wdrożenie modelu chmury prywatnej,
czy wirtualizacja.
11
5 kroków budowania zespołu
wg Łukasza Kruczka
Barbara Mejssner, it-manager.pl
Wraz z nadejściem okresu zimowego rozpoczął się sezon wyjątkowych emocji na skoczniach
narciarskich. Choć aktualnie polska reprezentacja nie święci triumfów na zawodach, trener
Łukasz Kruczek nie ustaje w wysiłkach, by zawodnicy stanęli na najwyższym podium.
Szkoleniowiec wie, że wynik jest efektem nie tyle dobrego startu jednego sportowca,
co wytrwałej pracy całego zespołu. Dokładnie zaplanowany trening oparty na szczegółowej
analizie każdego skoku, testowanie nowych technologii i poszukiwanie ciągłych usprawnień
przez wszystkich członków drużyny sprzyja budowaniu zespołu. Metody zarządzania stosowane
przez doświadczonego trenera to nic innego jak wykorzystywanie elementów Strategii Lean,
czyli zaangażowanie wszystkich członków zespołu w budowanie przewagi konkurencyjnej.
Jak zaangażować wszystkich członków zespołu
do zwycięstwa? Na to pytanie szukają odpowiedzi
zarówno menedżerowie biznesu, jak i trenerzy
sportowi. Łukasz Kruczek stosuje w swojej pracy
5 kluczowych zasad zarządzania zespołem
wyrastających ze Strategii Lean. Prowadzą one
do wzrostu determinacji i motywacji całej drużyny,
co stanowi klucz do ciągłej poprawy wyników.
1. Jeden zespół, jedna droga
Łukasz Kruczek mówi: W pracy trenerskiej dążę do
tego, by drużynie przyświecała myśl „jeden zespół,
jedna droga” – co oznacza, że wszyscy jedziemy na
tym samym wózku. Podstawą są jasno zdefiniowane
cele, dzięki którym mamy przejrzyste kryteria
zwycięstwa. Powtarzam zawodnikom, że każdy ma
wpływ na wynik innej osoby z zespołu. Skoczkowie
są dla siebie nawzajem trenerami. Wspierają się
i motywują, a także w razie czego instruują.
Dzięki temu mają poczucie odpowiedzialności
i dążą do wspólnego sukcesu.
Współpraca między zawodnikami jest przykładem
dobrych praktyk, które warto przenieść na
płaszczyznę biznesu. Przy wdrażaniu Strategii
Lean zadaję menedżerom pytanie, jaki jest cel
12
ich organizacji i jaka jest strategia jej rozwoju,
najczęściej wskazują na cele indywidualnych
departamentów – mówi Radosław Drzewiecki,
prezes Leanpassion. Firmy są podzielone na szereg
silosów wertykalnych, takich jak: sprzedaż, operacje,
HR, finanse. Problem w tym, że nie mają one
świadomości wspólnych celów. Bariera występuje nie
tylko pomiędzy departamentami, ale także między
kadrą menedżerską, a resztą pracowników. Dlatego
warto na początek usiąść razem i niczym drużyna
skoczków określić wspólne cele.
2.100% zaangażowania to podstawa
– Jeśli zawodnik jest zaangażowany na 90% to nie
może osiągnąć wyniku w sporcie. Dotyczy to nie
tylko skoczków, co całego zespołu – przekonuje
Kruczek. – Jeśli jedna osoba odpuszcza, odbija się
to na całej grupie. Wszyscy biorą odpowiedzialność
za swoją pracę i muszą pamiętać, że od ich
efektów zależy sukces drużyny. Zadaniem trenera
jest natychmiastowa ocena po każdym oddanym
skoku. W ten sposób zaangażowanie nie słabnie,
a zawodnik może na bieżąco poprawiać swoje wyniki.
Wg wyników badań przeprowadzonych przez
Instytut Gallupa* tylko 13% pracowników odczuwa
satysfakcję z pracy. Statystyki wskazują również,
że 85% respondentów przychodzi do pracy,
ponieważ nie mają innego wyjścia i po prostu
muszą, a ich główną motywacją są pieniądze.
Co ciekawe, badania wyraźnie pokazują korelację
pomiędzy stopniem zaangażowania pracowników,
a wynikami finansowymi. Średni wskaźnik EBIT
w firmach charakteryzujących się wysoką
satysfakcją zespołu jest trzykrotnie wyższy niż
w pozostałych organizacjach. Radosław Drzewiecki
mówi: Sięgając do Strategii Lean, poziom satysfakcji
zespołu rośnie wówczas, gdy menedżerowie
„są bezpośrednio w procesie”, rozmawiają
z pracownikami i zadają pytania dotyczące jego
realizacji. W ten sposób można wyeliminować
charakterystyczną dla relacji menedżer–pracownik
asymetrię informacji oraz różne postrzeganie
celów firmy.
a tym samym dążyć do ciągłego usprawniania pracy
skoczków. Gdybyśmy oparli naszą ocenę na opiniach
z zewnątrz, już dawno byśmy przestali trenować –
a konkurencja tylko na to czeka.
3.Zwycięski skok to nie zawsze dobry skok
4.Mistrza wyróżnia stopień determinacji
– Gdy wraz z zespołem analizujemy zwycięskie
skoki, zdarza się, że choć są one dalekie, często
daleko im do perfekcji. Zwycięzcy są często lepsi
od konkurencji, ponieważ po prostu popełniają
mniej błędów. Szczegółowa analiza skoku pozwala
wychwycić szereg szczegółów, które można poprawić,
– Mistrz zawsze dojdzie na szczyt. Znajdzie swoją
własną ścieżkę. Wynika to z jego determinacji.
Średniego gracza trzeba na ten szczyt wprowadzić
– mówi Kruczek. – To co charakteryzuje mistrzów
to właśnie determinacja do zwyciężania. Cierpliwość
i konsekwencja w pracy towarzyszą im na co dzień.
Często w praktyce biznesowej spotykamy się
z sytuacją, w której menedżerowie prowadzą
długie dyskusje, na temat tego, kto ma rację,
a nikt nie pokusi się o zadanie pytania, jakie są
fakty – mówi Drzewiecki. Na pytanie, jaka jest
motywacja pracowników, najczęściej odwołujemy
się do opinii a nie faktów, generalizując, że jest
ona: mała, średnia lub duża. Odpowiednio
zadane pytanie o to, jaki procent pracowników
i kto konkretnie odczuwa brak satysfakcji,
pozwala określić problem i wprowadzić działania
naprawcze, które wzmocnią motywację
i zaangażowanie pracowników.
13
Wokół Strategii Lean narosło szereg mitów,
które sprawiają, że jej wprowadzanie może wiązać
się ze sprzeciwem. Nie polega bowiem ona
na zmuszaniu ludzi do cięższej pracy. Nie sprawia
również, że zespół będzie pracował szybciej.
Rolą menedżera jest budowanie świadomości
celów, kreowanie atmosfery zaangażowania
i otwartości do zgłaszania problemów – wyjaśnia
Drzewiecki. Praktyka wskazuje, że najczęściej
menedżer okazuje szacunek swoim pracownikom
poprzez sam kontakt z procesem, współuczestnictwo
i obserwowanie postępów.
5.Skok to nie tylko moment wybicia z progu
– Każdy skok to proces złożony z wielu bardzo
ważnych elementów, a nie tylko moment wybicia
z progu – mówi na koniec Łukasz Kruczek.
Dlatego jestem zwolennikiem codziennego trenowania
i nieustannego szukania problemów. Zostawiamy
szerokie pole do eksperymentowania i poszukiwania
nowych rozwiązań, które mogą zdecydować
o zwycięstwie. Nie mam tu na myśli tylko pracy
skoczka, ale również spraw najprostszych – kształtu
i wygody buta, stosowanej diety, układu wiązania.
Wydaje się oczywiste, że doskonalenie zespołu
to nieustający proces, a nie kolejny projekt,
za który jest odpowiedzialny określony dział
w firmie. Drzewiecki konkluduje: Powodzenie
Strategii Lean jest możliwe tylko wtedy, gdy
wszyscy pracownicy są zaangażowani w proces
doskonalenia. Najczęstszy błąd menedżerów polega
na przekonaniu, że wystarczy powołać komórkę
ds. Lean, a samemu można skoncentrować się
na prowadzeniu biznesu.
* Instytut Gallupa (ang. The Gallup Organization) – najstarszy instytut badania opinii społecznej na świecie
dostarczający różnorodnych informacji na temat opinii publicznej w kwestiach aktualnych wydarzeń.
14
Redukcja kosztów w IT
Nie dopuść do tego, aby polityka firmy
powstrzymała realizację inicjatyw mających
na celu redukcję kosztów IT
Konflikty pomiędzy bezpośrednimi podwładnymi
CIO, bardzo często wynikające z faktu, że każdy
z nich broni swojego terytorium, mogą udaremnić
plany redukcji kosztów związanych z utrzymaniem
i zarządzaniem funkcją IT w firmie. Bez względu
na koniunkturę gospodarczą, dyrektorzy IT
muszą bardzo często realizować projekty
optymalizacji kosztów.
Konieczność redukowania kosztów IT wynika
nierzadko z ogromnej presji finansowej lub
konkurencyjnej – ponieważ wyniki spółki
w danym kwartale nie są najlepsze, prezes
domaga się redukcji kosztów w całym
przedsiębiorstwie, aby uspokoić udziałowców.
Niekiedy inicjatywy mające na celu
optymalizację kosztów IT podejmowane są
przez CIO w ramach wprowadzanych przez nich
zmian lub w celu wykazania ich bezpośredniego
wpływu na organizację funkcji IT. Zdarza się
również, że CIO dąży do wyeliminowania
określonych wydatków w celu pozyskania
środków na nową inwestycję.
Identyfikacja możliwości ograniczenia kosztów
w obszarze IT jest stosunkowo prostym zadaniem,
czego nie można już niestety powiedzieć
o samej jego realizacji. Jak przekonuje Anthony
Stephan, dyrektor działu Technology Strategy
& Architecture w Deloitte Consulting LLP, polityka
organizacyjna, sprzeczne priorytety czy brak
dedykowanych zasobów sprawiają, że realizacja
wielu inicjatyw z zakresu redukcji kosztów IT
jest opóźniona, zaniechana lub nie przynosi
oczekiwanych rezultatów.
Walka o wpływy wewnątrz organizacji może
okazać się najpoważniejszym wyzwaniem
stojącym przed CIO. Konieczność ograniczania
kosztów przeraża nawet najbardziej trzeźwo
myślących pracowników działu IT. Ich obawy
związane są przede wszystkim z możliwością
negatywnego wpływu projektów optymalizacyjnych
na ich wizerunek liderów. Z tego też względu
podejmują często działania o charakterze
samozachowawczym, które mogą zniwelować
najlepsze intencje CIO.
Istnieje wiele sposobów przeciwdziałania
oporowi oraz zachowaniom samozachowawczym
pracowników. Już na samym początku CIO może
przybrać łagodny ton, ogłosić, że inicjatywa ma
strategiczne znaczenie dla przedsiębiorstwa,
wyznaczyć jasne, mierzalne cele czy też
wprowadzić system zachęt dla pracowników.
Nie pokazuj jak bardzo ci zależy
Stephan twierdzi, że polecenie cięcia kosztów
informatycznych wydane CIO przez prezesa
lub dyrektora finansowego firmy wywiera na
niego ogromną presję. CIO czują bezpośrednią
presję, ponieważ wyznaczane im cele są
zazwyczaj niezwykle ambitne i sprzeczne
z innymi projektami o charakterze doraźnym.
W rezultacie, ich stres często udziela się
podwładnym – zauważa Stephan.
Osoby, które nie potrafią zapanować nad
nerwami, potęgują jednak dodatkowo uczucie
niepokoju wśród bezpośrednio podległych im
pracowników, w wyniku, czego zaczynają oni
kierować się instynktem samozachowawczym.
Zdaniem Stephana, poczucie lęku w środowisku
pracy staje się problematyczne z dwóch
względów. Po pierwsze, źle wpływa na
produktywność. Bezpośredni podwładni CIO
tracą cenny czas aby „ratować swoją skórę”
zamiast podjąć działania związane z redukcją
kosztów. Po drugie, wypracowanie wspólnego
podejścia oraz budowanie zaangażowania
zespołu wymaga dodatkowego trudu.
15
Jeśli CIO rozpoczyna projekt w napiętej atmosferze,
dążąc następnie do osiągnięcia określonego
wyniku, konieczne jest wyeliminowanie źródła
niepokoju oraz budowanie pasji i optymizmu
związanego z realizacją projektu – podkreśla
Stephan. Niepokój, który początkowo towarzyszy
podwładnym zaangażowanym w realizację
projektu, sprawia, że jest im trudniej wyrazić
poparcie dla wizji dyrektora, bez względu na to,
jak bardzo jest ona przekonująca.
Nadaj projektom odpowiednie znaczenie
Zdaniem Stephana, to, czy dana inicjatywa
przyniesie spodziewane efekty, zależy przede
wszystkim od zdolności przywódczych osoby
zarządzającej działem IT, a w szczególności
od umiejętności przedstawienia wizji projektu
w przekonujący sposób. W wielu przypadkach
niezbędne jest „odczarowanie” cięcia kosztów
w taki sposób, aby nie było ono postrzegane
wyłącznie jako bezwzględne działanie mające
na celu ograniczenie zatrudnienia, ale jako
strategiczna inicjatywa umożliwiająca rozwój
nie tylko działu IT, ale również całej firmy.
Informując pracowników o projektach mających
na celu redukcję kosztów informatycznych,
CIO powinni skupić się na najważniejszym
celu, jakim jest zwiększanie możliwości
rozwojowych oraz wspieranie innowacyjności
przedsiębiorstwa. Powinni również pokazać, w jaki
sposób konkretne działania, jakie mają zamiar
zrealizować, uatrakcyjnią pracę działu lub zdejmą
z pracowników ciężar wykonywania niektórych
obowiązków towarzyszących ich codziennej pracy
– tłumaczy Stephan.
Rzecz jasna, zmiana negatywnego postrzegania
przez pracowników inicjatyw mających na celu
redukcję kosztów IT wymaga od CIO pewnej siebie
postawy oraz przekazywania spójnych informacji.
Nie wystarczy poinformować pracowników
16
o planowanym projekcie optymalizacji kosztów
jednorazowo, na jego początku – dodaje Stephan.
Przekaz ten należy wzmacniać w całym okresie
jego realizacji.
Wyznacz jasne cele
Baris Sarer, starszy menedżer w dziale Technology
Strategy & Architecture Deloitte Consulting LLP,
proponuje, aby CIO wyznaczali jasne cele w zakresie
cięcia kosztów dla każdego obszaru podległej
im funkcji wraz z terminami ich realizacji, a także
monitorowali osiągane w tym zakresie postępy.
I chociaż taka wskazówka może wydawać się
trywialna, Sarer i Stephan twierdzą, że w praktyce
niewielu dyrektorów IT się nią kieruje.
Dyrektorzy ds. informatyki potrafią zazwyczaj
przedstawić uzasadnienie biznesowe projektu
redukcji kosztów. Zdarza się jednak, że nie
monitorują rezultatów w trakcie jego realizacji,
co stanowi jedną z największych przeszkód
na drodze do sukcesu – twierdzi Sarer.
Zdaniem Sarera, równie ważne jest określenie
strat, na jakie dział informatyczny jest narażony
na skutek odwlekania decyzji lub działań
związanych z realizacją określonych inicjatyw
mających na celu optymalizację kosztów.
W przypadku klienta rozważającego możliwość
skorzystania z usług outsourcingowych
świadczonych przez podmiot zagraniczny, kwota
ta wynosiła 100.000 dolarów tygodniowo.
Przy takim poziomie szczegółowości w odniesieniu
do potencjalnej redukcji kosztów oraz oszczędności,
można z łatwością wyznaczyć cele, które
pracownicy powinni osiągnąć – twierdzi Sarer.
Nawet jeśli pracownicy czują się zagrożeni, mają
wyznaczony wspólny cel. Bieżące monitorowanie
działań podejmowanych w tym zakresie sprawia,
że jest im trudniej zlekceważyć nałożone
na nich obowiązki.
System zachęt: pieniądze motywują
do działania
Zachęty finansowe są skutecznym narzędziem,
które CIO mogą zastosować, aby zapobiec ostremu
sprzeciwowi oraz walkom o wpływy, skupiając
jednocześnie uwagę pracowników na konieczności
osiągnięcia celów z zakresu optymalizacji kosztów.
Jeśli inicjatywa mająca na celu cięcie kosztów
koliduje z bieżącą pracą osób pełniących funkcje
kierownicze w dziale IT i nie zostanie uwzględniona
w planach motywacyjnych, osoby te nie będą
szczególnie zainteresowane jej realizacją – zauważa
Sarer. Początkowo mogą podjąć pewne działania
mające na celu ograniczenie kosztów, ale realizacja
całego programu, od analizy po osiągnięcie
zamierzonych korzyści, wymaga wprowadzenia
odpowiedniego systemu zachęt.
Ludzie są w stanie zrobić bardzo wiele,
jeśli ich premia zostanie uzależniona od
osiąganych wyników oraz realizacji inicjatywy
o charakterze strategicznym – dodaje Stephan.
Nie zachowują się już jak ofiary, ale jak zwycięzcy.
Zamiast przyjmować pozycję obronną, konkurują
ze sobą, aby osiągnąć jak najlepsze rezultaty.
Systemy motywacyjne związane z osiąganymi
wynikami potrafią zdziałać cuda.
Dodatkowe informacje: „When Should You Restructure IT”, „5 Steps to IT Restructuring Success”
Tłumaczenie artykułu, który ukazał się 26 sierpnia 2014 r. na stronie: http://deloitte.wsj.com/cio/
17
Jak mierzyć efektywność IT
Stanisław Matczak
Efektywność – to takie ładne słowo…
Wszyscy chcieliby, żeby praca – zarówno osobista,
jak i działanie całej firmy czy organizacji – była
efektywna. Wysoka efektywność z reguły związana
jest ze sprawnym działaniem, brakiem marnowania
czasu na niepotrzebne aktywności, skupieniem
się na tym co najważniejsze, dostarczaniem
właściwych rezultatów czy produktów, wysoką
motywacją do pracy, oraz – last but not least –
dochodowością przedsiębiorstwa.
To wszystko brzmi pięknie – natomiast kiedy
próbujemy odpowiedzieć na pytanie, czy praca
naszych działów czy zespołów wytwarzających
oprogramowanie jest efektywna, to z reguły
pojawia się problem. A jeszcze większy problem
pojawia się w momencie, kiedy chcemy tą
efektywność jakoś zmierzyć…
Po co nam mierzenie efektywności?
Zanim przejdziemy do samego mierzenia, dobrze
jest zastanowić się przez chwilę po co jest nam
potrzebna miara naszej efektywności. Jaka jest
nasza motywacja do tego, aby inwestować w to
mierzenie – bo tak naprawdę podwody mierzenia
efektywności mogą być bardzo różne.
Być może chcemy mierzyć efektywność, po to,
aby pochwalić się w jakimiś ładnymi liczbami
czy wskaźnikami w jakimś raporcie. W tym
przypadku nie trzeba się mocno zastanawiać nad
wyborem metody mierzenia – bierzemy po prostu
taką metodę, która da nam najlepsze wyniki.
I cieszymy się tym wynikami do czasu, aż ktoś
nie zacznie drążyć, co tak naprawdę się za tymi
wskaźnikami kryje…
Być może mamy kilka osób czy zespołów, które
pracują razem i chcemy porównać ich efektywność
ze sobą – po to, aby nagrodzić najlepszych
i dać sygnał „hej, powinniście się poprawić”
tym gorszym. W tym przypadku musimy być
18
szczególnie ostrożni z wyborem metody pomiaru.
Informatycy (wbrew pozorom) nie są głupi
i wybranie złej metody oceniania będzie miało
dwie konsekwencje. Po pierwsze spowoduje efekt
odwrotny do zamierzonego, czyli demotywację
pracowników: „po co mam się starać w pracy, skoro
jestem oceniany przez tak idiotyczne kryteria?”.
A po drugie, bardzo szybko pracownicy nauczą
się tak organizować swoją pracę, aby raportować
wysokie wskaźniki efektywności, nawet jeżeli ich
praca nie będzie efektywna…
I jest jeszcze jedna motywacja – w moim odczuciu
najbardziej sensowna. W wielu firmach podejmowane
są różnorakie wysiłki mające na celu zwiększenie
efektywności pracy. Wprowadzanie tych zmian
zawsze wiąże się z jakimiś kosztami – albo są
to koszty bezpośrednie, albo pośrednie, kiedy
to musimy zmienić nasze przyzwyczajenia,
wprowadzić jakieś nowe narzędzie, przekonać
się do niego… I tak naprawdę czasami trudno
jest stwierdzić, czy wprowadzenie danej
zmiany przyniosło więcej kosztu czy pożytku.
Ba, często różne osoby mają różne zdania na
temat tej samej zmiany: „wprowadzenie wiki
pomogło nam aktualizować na bieżąco naszą
dokumentację” vs. „wprowadzenie wiki sprawiło,
że mamy dodatkową robotę z utrzymywaniem tego
narzędzia”. Dlatego też dobrze byłoby zmierzyć,
czy po wprowadzeniu zmiany efektywność pracy
faktycznie nam wzrosła. Czy faktycznie jest lepiej –
bo może też być tak, że koszty zmiany przeważają
nad zyskami z jej wprowadzenia.
Problem z licznikiem równania
Jeżeli mamy coś mierzyć, to najlepiej jest zacząć
od określenia definicji wartości mierzonej…
Proponuję wziąć najprostszą definicję efektywności,
która mówi, że efektywność można określić
jako stosunek uzyskanych efektów (na przykład
wytworzonych produktów) do poniesionych
nakładów (najczęściej włożonej pracy lub kapitału).
Im więcej wytwarzamy – tym efektywność jest
większa. Im większy jest koszt wytwarzania –
tym efektywność mniejsza. Banalne, nieprawdaż?
Mając takie równanie, z reguły w projektach IT
nie mamy większych problemów z określeniem jego
mianownika. Koszt wytworzenia oprogramowania
możemy bardzo łatwo zmierzyć w poniesionych
wydatkach (np. koszt sprzętu) oraz w czasie pracy,
który również możemy przeliczyć na pieniądze.
Problem natomiast pojawia się w mierzeniu efektu
pracy – jaka jest „wartość” czy „ilość” stworzonego
przez nas oprogramowania. Jak ją zmierzyć?
I tutaj właśnie zaczynają się schody…
Próbujemy coś zmierzyć od strony klienta…
Pierwszym pomysłem jest określenie wartości
oprogramowania z perspektywy klienta. Czyli
próba odpowiedzi na pytanie: co nowy system
(albo zmiana w istniejącym systemie) daje
klientowi? Na ile klient wycenia taką zmianę?
I tutaj trafiamy na pierwszy problem: wartość
oprogramowania dla klienta jest czasami zupełnie
niewspółmierna do nakładów koniecznych do
wytworzenia tego oprogramowania! Może być
tak, że to, co klient zamawia, można mieć „prawie
za darmo” – możemy to wykonać używając
gotowego i darmowego systemu lub składając
razem kilka dostępnych komponentów. Tak może
być na przykład przy tworzeniu prostych serwisów
internetowych – jeżeli klient chce założyć sobie
bloga firmowego, to można taki serwis stworzyć
w ciągu pół godziny. Ale może też być tak,
że klient wymaga implementacji specyficznych
funkcjonalności w specyficznej technologii
(np. wymaga zmiany w systemie, który jest
napisany specjalnie dla niego) i tutaj koszt zmiany
jest duży. Może być też tak, że stosunkowo prosta
zmiana wymaga upgrade’u lub wymiany całego
systemu, z którego korzysta klient – a wtedy
koszt jest ogromny…
Co więcej, nawet w ramach zmian w obrębie
jednego systemu, niektóre zmiany mogą być
wprowadzone względnie łatwo (bo jest to
np. zmiana parametryzacji), natomiast inne
zmiany wymagają głębokiej przebudowy tego
systemu. Czasami rodzi to sporą konfuzję po
stronie klienta – skoro zmiana A kosztuje mnie
1 jednostkę czasu/pieniędzy, to dlaczego
porównywalna funkcjonalnie zmiana B ma mnie
kosztować 100 takich jednostek?
Kod posiada linie
Skoro nie udało nam się wyprowadzić jednostki
wartości oprogramowania od strony klienta,
to może zmieńmy punkt widzenia i spróbujmy
spojrzeć na problem od strony technologicznej?
Metodą pomiaru ilości pracy, która była kiedyś
popularna i czasami jeszcze powraca w różnych
kontekstach, jest liczenie linii kodu tworzonych
przez programistę. Pomysł na pozór wydaje się
bardzo kuszący – ilość linii kodu jest to metryka
bardzo prosta do pomiaru, intuicyjna, zrozumiała
(nawet dla menedżerów…) oraz w pewien sposób
związana z dostarczanymi funkcjonalnościami.
Nic, tylko wziąć i stosować.
Tyle, że tak naprawdę średnio zdolny programista
jest w stanie wyprodukować dowolną ilość linii
kodu w ciągu dnia i, co więcej, wytworzony w ten
sposób kod przy pierwszej konieczności jego
zmiany, będzie nadawał się tylko i wyłącznie
do wyrzucenia i napisania na nowo… Często
też praca najzdolniejszych programistów
polega na refaktoryzacji kodu, w wyniku czego
otrzymujemy… ujemną liczbę stworzonych linii
kodu. Nie rozwijając tego tematu – ocenie
efektywności pracy programisty poprzez ilość
napisanych linii kodu mówimy nasze stanowcze
i zdecydowanie „nie”. A więcej o różnych aspektach
pomiarów linii kodu można przeczytać na przykład
tutaj: „It’s Not About Lines of Code”.
19
Takie różne pointy…
Jeżeli nie linie kodu są miarą wartości
oprogramowania, to co? Dawno, dawno temu,
bo już w 1979 pojawiła się koncepcja obliczania
punktów funkcyjnych (Function Point Analysis –
FPA), czyli liczenia wartości, która ma wyrażać
złożoność oraz wartość oprogramowania. Koncepcja
jest ciekawa, pojawiają się w niej definicje, wzory,
algorytmy i wszystko wygląda bardzo mądrze
i naukowo… Tylko że, tak jak podobno ta metoda
jest popularna w USA, tak w Polsce nie spotkałem
się z żadnym projektem, który by tę metodę
stosował. Wpadamy tutaj trochę w błędne
koło: nie stosujemy punktów funkcyjnych,
bo nie widzimy z tego korzyści; nie widzimy
korzyści z punktów funkcyjnych, bo ich nie
stosujemy. Więcej o punktach funkcyjnych można
przeczytać np. w pracy Ewy Magiery. A jeżeli
ktoś próbował kiedyś stosować punkty funkcyjne
w jakimś praktycznym projekcie – będę wdzięczny
za kontakt i podzielenie się doświadczeniami…
Koncepcją z pozoru troszkę podobną do punktów
funkcyjnych są story points stosowane w metodykach
lekkich, np. w Scrumie. Podobieństwo polega na
tym, że zarówno punkty funkcyjne, jak i story
points, są to wartości bezwymiarowe, to znaczy
nie mające bezpośredniego przełożenia na
czas czy koszt wytworzenia oprogramowania.
Ale zupełnie inna jest filozofia wyznaczania
tych wartości. Za punktami funkcyjnymi stoją
pomiary i wyliczenia – czyli podejście inżynierskie:
„Zmierzmy w naszym systemie wejścia, wyjścia,
pliki, interfejsy i inne cuda, a potem wyliczmy z tego
złożoność oprogramowania używając do tego
bardzo skomplikowanych wzorów”. Koncepcja
wyznaczania story points wychodzi z diametralnie
innego założenia i mówi tak: „Te wszystkie pomiary
są bardzo pracochłonne i żmudne, a ich wynik
jest nie zawsze pewny. Dlatego też dajmy sobie
spokój z tym mierzeniem, zrezygnujemy z pięknych
teorii, które w praktyce nie działają i bazujmy
20
na doświadczeniu naszego zespołu, który już pewne
zmiany wykonał i potrafi szacować, ile następne
zmiany zajmą nam czasu”.
Story points sprawdzają się bardzo dobrze
w projektach prowadzonych za pomocą metodyk
lekkich i pozwalają na branie do iteracji
odpowiedniej ilości zadań oraz pozwalają
na oszacowanie, ile iteracji pozostało nam
do końca projektu. Ale nie są one wskaźnikiem,
który pozwala na porównywanie między sobą
zespołów, które pracują nad różnymi systemami
i w różnych technologiach, ani też nie wskażą
nam efektywności całej organizacji.
A może nie mierzyć wcale?
I w tym momencie wiele osób mówi tak: story
points u nas nie zadziałają, bo nie jesteśmy
Scrumowi. Nie chcemy albo nie mamy czasu
na eksperymenty z punktami funkcyjnymi.
Żadnych innych sensownych miar też nie udało
nam się skonstruować. No to trudno, zróbmy
inaczej. Zrezygnujmy z mierzenia efektywności całej
organizacji – zamiast tego uwierzmy w to, że nasze
subiektywne poczucie „na ile jest dobrze” jest
prawdziwe. Starajmy się poprawić efektywność tam,
gdzie widzimy problemy. Natomiast jeżeli chodzi
o ocenę efektywności pracy poszczególnych osób –
niech zajmą się tym ich bezpośredni przełożeni.
Kierownik przydziela swoim pracownikom zadania,
niech zatem również ocenia, czy pracownik
wykonuje te zadania efektywnie.
Takie podejście jest stosowane w wielu firmach –
ale zauważmy, że takie rozwiązanie wymaga,
aby kierownik zespołu posiadał co najmniej taki
sam poziom wiedzy i umiejętności technicznych
co jego podwładni. A nie zawsze tak jest – często
bywa tak, że kierownik zespołu zarządza zadaniami,
współpracuje z klientem, sporządza różne raporty
i robi milion innych rzeczy, które sprawiają,
że nie nadąża w rozwoju technicznym za swoimi
podwładnymi. Dotykamy tutaj skomplikowanej
kwestii roli kierownika w zespole IT – bo bardzo
często oczekuje się, że ma być to osoba, która
będzie super-programistą, znawcą wszystkich
niuansów systemu, wyrocznią architektoniczną,
a jednocześnie będzie to osoba zapewniająca
skuteczną komunikację, prezentująca wizje,
pracująca nad motywacją zespołu, zapewniająca
coaching pracowników, zarządzająca konfliktami,
oceniająca wyniki pracy, dbająca o rozwój zespołu
i robiąca masę innych rzeczy. W pewnym momencie
trzeba podjąć decyzję – czy kierownik zespołu
ma bardziej rozwijać się w kierunku technicznym
(jest wtedy super-programistą i ocena efektywności
pracy podwładnych jest dla niego o tyle prosta,
że robi na co dzień to samo), czy też może ma się
rozwijać bardziej w kierunku zarządzania (wtedy
prowadzi zespół, ale niekonieczne może być w stanie
ocenić efektywność pracy podwładnych, bo ci mogą
mieć większą wiedzę techniczną od niego).
I na zakończenie…
Zaczęliśmy od efektywności, a skończyliśmy
na oczekiwaniach co do kierownika zespołu…
Znak to, że pora już kończyć ten tekst.
I na koniec o jeszcze jednym sposobie mierzenia
i „poprawiania” efektywności. W pewnej
małej firmie normą pracy programisty była
ilość spędzonych godzin przy pisaniu kodu.
A żeby dopilnować postępów pracy, właściciel
firmy co jakiś czas wpadał do pokoju programistów
i sprawdzał, czy wszyscy mają ręce na klawiaturach
i stukają w klawisze… Historia wydaje się
absurdalna, ale jest, niestety, prawdziwa.
A czy w Twoim zespole czy firmie stosuje się
jakiś pomiar efektywności pracy? Jeżeli tak –
będę wdzięczny za przesłanie informacji o nim
na mojego maila ([email protected]).
Artykuł pierwotnie ukazał się na blogu: http://www.trzeciakawa.pl/
Stanisław Matczak
Od początku swojej kariery zawodowej pracuje przy rozwoju i utrzymaniu dużych systemów informatycznych.
W przeszłości analityk, programista, projektant, project manager, lider zespołów. Obecnie kierownik zespołu
odpowiedzialnego za optymalizacje systemów informatycznych w Nordea IT Polska.
Założyciel i współtwórca portalu „Trzecia kawa” (www.trzeciakawa.pl), który gromadzi artykuły dotyczące różnych
zagadnień wytwarzania oprogramowania.
Prywatnie zajmuje się prowadzeniem warsztatów komunikacyjnych dla małżeństw i jest fanem nocnych imprez na orientację.
21
Efektywne zarządzanie informacją
to największy kapitał w biznesie
Europejscy managerowie w międzynarodowym
badaniu firmy Canon na temat znaczenia informacji
Rafał Jakubowski
Przedsiębiorstwa na całym świecie stoją przed wyzwaniem codziennego przetwarzania rosnącej
ilości informacji. Jednak niektóre firmy radzą sobie w tej sytuacji lepiej niż inne, osiągając
korzyści dla organizacji. Zarządzają one informacjami w taki sposób, że wzrasta produktywność,
a biznes lepiej odpowiada na potrzeby klientów. Kluczowe znaczenie mają dla osiągnięcia
tego celu sformalizowane szkolenia pracowników z wykorzystania technologii biznesowych
oraz standaryzacja procesów i praktyk – m.in. takie wnioski płyną z badania przeprowadzonego
przez brytyjski instytut ICM na zlecenie firmy Canon na grupie 3800 managerów w całej
Europie. Celem projektu było zidentyfikowanie czynników kształtujących produktywność,
poznanie relacji pomiędzy zarządzaniem informacjami a wynikami finansowymi firmy
oraz znaczenia standardowych procesów i praktyk biurowych dla efektywności, a także
odkrycie tego, co ogranicza zwrot z inwestycji w rozwiązania IT. Analiza danych pozwoliła
na wyodrębnienie czterech kluczowych zagadnień.
Wyszkolona produktywność
Jak wynika z raportu przygotowanego na zlecenie
Canon, pracownicy w przedsiębiorstwach –
bez względu na wielkość organizacji, sektor
gospodarki oraz jej lokalizację geograficzną –
w coraz większym stopniu czują się przytłoczeni
ilością informacji, z którą mają do czynienia
podczas wykonywania codziennych obowiązków.
To niestety przekłada się na procesy biznesowe,
które stają się coraz mniej efektywne. Badanie
wykazało, że istnieją trzy podstawowe czynniki
wpływające na produktywność: sformalizowane
szkolenia, standardowe procesy oraz centralne
systemy pamięci masowych.
Spośród tych trzech, kluczową rolę odgrywają
szkolenia – w szczególności dotyczące tego,
w jaki sposób optymalnie wykorzystywać
technologie biznesowe, a także jak przechowywać
22
i współdzielić informacje. Mają one największe
znaczenie dla pracowników na niższych szczeblach
hierarchii organizacyjnej. Nieco mniejszą wagę
przypisują im właściciele firm i przedstawiciele
zarządów. Ich zdaniem, dla zwiększania
produktywności równie ważne co szkolenia (39%)
są protokoły przechowywania i współdzielenia
informacji oraz ich realizacja w praktyce (37%).
Pracownicy, którzy swoje obowiązki wykonują zdalnie
większą rolę przypisują standardowym sposobom
przechowywania informacji i zarządzania nimi.
Biorąc to pod uwagę, wydaje się, że ta sytuacja
to doskonała okazja dla CIO na przejęcie sterów
w organizacji w obszarze systemów zarządzania
informacją. Z wniosków zawartych w raporcie
ICM dla firmy Canon wynika, że zwiększenie
produktywności można zrealizować w trzech
stosunkowo prostych krokach:
•wprowadzając lub rozbudowując
sformalizowane programy szkoleń pracowników,
22%
•działając na rzecz standaryzacji procesów,
•wdrażając scentralizowane systemy pamięci
masowych.
systemy pamięci
masowych
Priorytety:
Informacja to pieniądz
Relacja łącząca informacje z zyskownością to
kluczowy element wpływający na efektywność
organizacji. Pracownicy na wszystkich szczeblach
powinni mieć świadomość, że wszelkie
podejmowane przez nich działania, w których
centrum znajduje się informacja, mają kluczowe
znaczenie dla zwiększania zyskowności
przedsiębiorstwa.
Badanie ICM na zlecenie Canon pokazuje,
że im niższy szczebel organizacyjnej hierarchii,
tym mniejsze zrozumienie związku, jaki zachodzi
pomiędzy informacjami a zyskiem. Jednocześnie,
stosunkowo niska świadomość tej relacji
charakteryzuje pracowników wykonujących swoje
obowiązki zdalnie oraz pracowników sektora
edukacyjnego i ochrony zdrowia.
Z badań wynika, że tylko nieco ponad połowa
pracowników na niższych stanowiskach
rozumie wpływ informacji na zyski. To oznacza,
że przedsiębiorstwa mają jeszcze spore
możliwości do zwiększania swoich zysków,
pod warunkiem, że zapewnią swoim pracownikom
szkolenia koncentrujące się wokół kwestii informacji
oraz danych posiadanych przez organizację.
Co ciekawe, pracownicy, którzy zostali przeszkoleni
w zakresie technologii biznesowych oraz
zarządzania informacjami o wiele częściej zdają
sobie sprawę z relacji pomiędzy informacjami
a zyskami niż osoby, które nie uczestniczyły
w szkoleniach. Jednocześnie, im szkoleń było
więcej tym były bardziej treściwe.
większa
produktywność
52%
szkolenia
pracowników
27%
procesy/
protokoły
Źródło: Badanie instytutu ICM na zlecenie firmy Canon
Badanie
Badanie wykonała brytyjska firma ICM na zlecenie
firmy Canon. W ramach projektu przeprowadzono
3,8 tys. wywiadów w 24 krajach Europy, Azji oraz
Afryki (w tym 200 wywiadów w Czechach, na Słowacji
i Węgrzech oraz w Polsce). Większość badanych to
pracownicy biurowi na niższych i średnich szczeblach
hierarchii organizacyjnej w małych i średnich firmach
(tylko 24% badanych to firmy zatrudniające powyżej
5 tys. pracowników) zajmujący się obsługą klienta,
sprzedażą i marketingiem, finansami i księgowością,
zasobami ludzkimi, kwestiami administracyjnymi
oraz innymi.
23
Rozumie, w jaki
sposób wytwarzane
lub przetwarzane
informacje wpływają
na zyskowność
organizacji
Zrozumienie relacji w grupie osób, które zostały przeszkolone w zakresie:
znaczenia
informacji i danych
dla organizacji
obsługi systemów
zarządzania
dokumentami/
polityki
przechowywania
dokumentów
obsługi
oprogramowania
z zakresu
bezpieczeństwa/
polityki zapisywania
plików
procedur
przechowywania/
współdzielenia
informacji
70%
71%
72%
73%
64%
(57% ankietowanych na niższych
stanowiskach nie-kierowniczych)
Źródło: Badanie instytutu ICM na zlecenie firmy Canon
Maksymalny ROI
Tylko nieco ponad połowa ankietowanych
wie, jak wykorzystać w pełni technologie
biznesowe.
Co więcej, blisko połowa uważa,
że odpowiedzialność za nauczenie się
korzystania z technologii biurowych spoczywa
na użytkownikach końcowych i pracownikach.
Podobna liczba bazuje na szkoleniach
technologicznych organizowanych
przez zewnętrzne podmioty.
Jedna osoba na trzy przyznaje, że nie
została formalnie przeszkolona w zakresie
przechowywania i zarządzania informacjami.
Dotyczy to w szczególności mniejszych
24
organizacji oraz pracowników, którzy
większość obowiązków wykonują poza
biurem. 36% pracowników zdalnych twierdzi,
że nie uczestniczy w szkoleniach, ponieważ
nie pracuje na co dzień w biurze.
Największe zaniedbania, a zarazem największy
potencjał mają szkolenia koncentrujące się
wokół oprogramowania i procedur związanych
z bezpieczeństwem. Ponad połowa ankietowanych
nie została objęta szkoleniami w tym obszarze.
Brak sformalizowanych szkoleń może często
oznaczać, że technologia nie jest w pełni
zoptymalizowana. To jednocześnie okazja
do lepszego zarządzania procesami i implementacji
standardów postępowania mających na celu
zwiększenie efektywności.
Biurowe standardy
Standardy praktyk biurowych mają fundamentalne
znaczenie dla zwiększania produktywności
przy wykorzystaniu technologii biznesowych.
Brak konsekwencji w tym obszarze oznacza
mniejszą produktywność działania. Według danych
zaprezentowanych przez firmę Canon zdecydowana
większość organizacji przechowuje informacje
na centralnych serwerach. Niestety jednocześnie
ponad 40% pracowników przechowuje
informacje na pojedynczych urządzeniach.
Dotyczy to w szczególności małych firm.
Ponad połowa badanych nie uważa, że systemy
pamięci masowych w ich organizacji są dobrze
zorganizowane i efektywne. Oceniają, że straty
czasowe z tym związane wahają się od 25
do 30 minut dziennie. Kluczowe problemy
to brak standardowych formatów papierowych
i niestandardowe sposoby zapisywania.
40% uważa, że standardowe sposoby zapisywani
plików ułatwiłyby współdzielenie informacji.
Ponad połowa firm nie ma standardów
w obszarze nazywania plików, przechowywania
maili i udostępniania dokumentów
do przeszukiwania. Choć duże firmy posiadają
centralne serwery czy chmury, to pracownicy
są w mniejszym stopniu świadomi standardów
w obszarze nazywania i zapisywania plików.
7 na 10 ankietowanych odpowiada, że doświadczyło
problemów podczas poszukiwania starszych
dokumentów.
Standardowe procesy mają szczególne znaczenie
w przypadku pracowników zdalnych. Dwie trzecie
firm posiada takich właśnie pracowników. Większość
z nich przyznaje, że zdalny dostęp jest wystarczający,
ale brak procesów efektywnego zarządzania
współdzieleniem informacji prowadzi do utraty
informacji i przeładowania systemów pocztowych.
Charakterystyka regionalna i organizacyjna
W krajach Europy Północnej, Zachodniej i Środkowej przedsiębiorstwa posiadają technologie
do przechowywania i współdzielenia informacji, ale ich słabością są nieefektywne systemy
zarządzania informacją. W Rosji, w Afryce i na Bliskim Wschodzie mniejsza liczba organizacji
wykorzystuje scentralizowane systemy pamięci masowych, a brak standardowych praktyk
wpływa negatywnie na produktywność.
Małe firmy są stosunkowo dobrze wyposażone w technologie biznesowe, ale brakuje w nich
formalnych szkoleń dla pracowników. Kluczowe znaczenie dla optymalizacji współdzielenia
informacji mają w tej grupie działania zmierzające do rozwoju systemów pamięci masowych.
W dużych przedsiębiorstwach istnieją formalne szkolenia i technologie pozwalające przechowywać
informacje w centralnym systemie. Największe wyzwania dotyczą działań mających na celu
większą standaryzację pracy, która przełoży się na wzrost efektywności.
25
Według danych zaprezentowanych przez firmę Canon
41% pracowników
78%
minut
organizacji
ma centralne serwery
do przechowywania informacji
przechowuje informacje
na indywidualnych urządzeniach
tyle czasu średnio każdego dnia
jest tracone na poszukiwanie
historycznych dokumentów
Anna Krupińska,
Dyrektor Marketingu BIG w Canon Polska
Standaryzacja przepływu informacji oraz edukacja pracowników w zakresie wykorzystania
technologii biznesowych stanowią kluczowe czynniki wpływające na efektywność przedsiębiorstw
w 2015 roku. To główny wniosek badań opracowanych przez niezależny ośrodek badawczy ICM
na zlecenie firmy Canon. Dostrzegając zmiany w sposobie zarządzania, Canon podkreśla konieczność
wsparcia menedżerów w ich dążeniu do wypracowania nowej definicji efektywności opartej
na standaryzacji procesów, łatwym dostępie do danych oraz innowacyjnych technologiach.
Po pierwsze: optymalizacja
Pracownicy najniższego szczebla hierarchii organizacyjnej podkreślają potrzebę edukacji
w obszarze optymalnego wykorzystania technologii biznesowych w firmie. 1/3 badanych
przyznaje, że nie została formalnie przeszkolona w zakresie przechowywania informacji
i zarządzania nimi. To wyraźny sygnał dla CIO, którzy powinni traktować rozwój umiejętności
szeregowych pracowników w zakresie obiegu dokumentów, jako jeden z kluczowych elementów
poprawy efektywności funkcjonowania poszczególnych oddziałów i całej firmy.
czytaj dalej
26
Mając świadomość potrzeb przedsiębiorstw, Canon od lat rozwija i wdraża technologie
wspierające konsolidację infrastruktury druku i automatyzację procesu obiegu dokumentów.
Wpływają one na podniesienie efektywności i zyskowności procesów, m.in. poprzez oszczędność
materiałów czy czasu pracy. W związku z tym dyrektorzy ds. IT w bezpośredniej współpracy
np. z dyrektorem finansowym powinni wziąć większą odpowiedzialność za proces integracji
obszaru technologicznego i biznesowego firmy w oparciu o najnowsze narzędzia informatyczne.
Przyczyni się to do lepszego zrozumienia wymagań klienta zarówno przez top menedżerów,
jak i pracowników szczebla podstawowego.
Po drugie: dostępność
Popularność modelu BYOD (Bring Your Own Device) sprawiła, że rolą CIO w nowoczesnych
przedsiębiorstwie nie jest już „stanie na straży” informacji. Odpowiadają oni za tworzenie
pracownikom warunków do możliwie łatwego dostępu do danych, zwłaszcza jeśli wykonują
obowiązki poza biurem. Według raportu Canon, aż 2/3 ankietowanych firm zatrudnia personel
działający w terenie. Model współpracy oparty na integracji aplikacji i narzędzi biznesowych
umożliwiających dostępność danych off-line wymaga jednak zapewnienia szczególnego
bezpieczeństwa. Dlatego przy wyborze dostawcy tego typu usług, dyrektorzy IT powinni wziąć
pod uwagę z jednej strony niezawodność i innowacyjność proponowanych rozwiązań, z drugiej
zaś doświadczenie i ekspercką wiedzę dostawcy. Canon, jako partner biznesowy największych
światowych organizacji posiada ogromne doświadczenie we współpracy przy najbardziej
złożonych projektach i doskonale łączy najwyższą jakość technologiczną z praktyką.
Po trzecie: standaryzacja
O ile ogromna większość przebadanych podmiotów posiada centralne serwery lub korzysta
z rozwiązań chmurowych, o tyle aż 40% ankietowanych przechowuje informacje na pojedynczych
urządzeniach. Bez wspomnianej już optymalizacji technologicznej opartej na jasnych standardach
np. dla obiegu dokumentów, może to generować poważne problemy z archiwizacją, wyszukiwaniem
czy współdzieleniem firmowych danych.
Z przedstawionymi powyżej wyzwaniami muszą zmierzyć się praktycznie wszystkie organizacje
działające w erze cyfrowej transformacji. Praktyka wskazuje, że zastosowaniu innowacyjnych
technologii powinna towarzyszyć przejrzysta wizja zmian, której wprowadzenie stanowi obecnie
nadrzędny cel każdego nowoczesnego dyrektora odpowiedzialnego za procesy cyfrowe.
Jak możemy wspierać Twój sukces?
W Canon rozumiemy wyzwania związane z zarządzaniem dokumentacją
i informacjami, dlatego od lat wspieramy firmy w optymalizacji procesów
poprzez wdrożenie rozwiązań umożliwiających: konsolidację infrastruktury
druku i zarządzanie nią, automatyzację procesu obiegu dokumentów,
przechowywanie dokumentów, druk i dystrybucję.
Wierzymy bowiem, że wykorzystując potencjał technologii można zmieniać
organizacje i zwiększać ich efektywność.
Zachęcamy do kontaktu z naszym przedstawicielem
oraz śledzenia naszych kanałów społecznościowych:
Wojciech Wyszyński
Sales&Business Development Manager
Canon Business Services
Canon Polska
Tel. + 48 22 500 21 44
e-mail: [email protected]
Więcej inspiracji znajdą Państwo na blogu Canon BUSINESS BYTES.
27
Przewaga dzięki specjalizacji
Badania na temat wykorzystania systemów APS
do wsparcia procesu planowania produkcji
Piotr Rojek, DSR Sp z o.o.
Powszechne zastosowanie systemów wspomagających zarządzanie klasy ERP spowodowało,
że firmy zbudowały podstawy sprawnego środowiska wymiany informacji w przedsiębiorstwie.
W tym momencie pada pytanie o faktyczną optymalizację kluczowych procesów organizacyjnych
w kontekście budowania przewagi nad konkurencją. W sytuacji, gdy wszystkie firmy dysponują
podobnymi rozwiązaniami o większej skuteczności procesów decydują specjalizowane aplikacje
dziedzinowe. Pokazują to przykłady firm produkcyjnych, które budują skuteczne środowisko wsparcia
biznesu oparte na aplikacjach wspomagających kluczowe obszary, takie jak planowanie produkcji.
Klasyczny system ERP pozwala jedynie na
podstawowe harmonogramowanie produkcji
nawet w średnio skomplikowanych procesach
wytwórczych. Częstym obejściem stosowanym
przez planistów, aby „wycisnąć” jak najwięcej
z ERP, jest ograniczenie harmonogramowania
tylko do wybranych poziomów w strukturze
złożenia produktu (Bill Of Material1). Korzyści
systemu specjalizowanego APS są zauważalne
praktycznie „od ręki”, ponieważ pozwalają
wyeliminować koszty związane z „ręcznym”
układaniem planów i przestojami. Zwiększają
elastyczność planowania produkcji dając możliwość
realizacji zleceń specjalnych. Wpływają również
na lepszą obsługę klientów zapewniając
szczegółową informację dla odbiorców.
Umożliwiają także pełne dostosowanie pracy
personelu do faktycznych potrzeb.
Główne wnioski wynikające z badania
Spółka DSR, czołowy dostawca rozwiązań
informatycznych dla firm produkcyjnych,
przeprowadziła badania wśród firm z sektora
wytwórczego dotyczące korzyści wynikających
z krótkoterminowego planowania produkcji.
Analizie poddano również narzędzia informatyczne
stosowane do wsparcia tego procesu. Wyniki
diagnozy pokazują standardy planowania produkcji
w polskich przedsiębiorstwach, a także wskazują
na potrzeby spółek produkcyjnych w tym obszarze.
•Kluczową korzyścią, której spodziewają się
użytkownicy tworzący plany produkcji w oparciu
o narzędzia IT jest zachowanie odpowiedniej
terminowości. Przyznało tak ¾ respondentów.
•Dla 46% respondentów minimalizacja kosztów
jest szczególnie istotnym czynnikiem
wynikającym z wprowadzenia rozwiązań
do krótkoterminowego planowania produkcji.
•Rośnie wykorzystanie zaawansowanych aplikacji
do harmonogramowania produkcji klasy APS,
które posiada 13% ankietowanych firm.
1
28
Bill of Material – zapis drzewiastej struktury produktu –
od drobnych elementów na najniższym poziomie,
poprzez półprodukty które na końcu „schodzą” się
w produkt gotowy.
•Systemy ERP wspierają jedynie główne
planowanie produkcji (63%) oraz tradycyjne
planowanie potrzeb materiałowych (60%).
Planowanie na kilka etatów
Według opinii 38% przedstawicieli firm
uczestniczących w badaniach, w proces
tworzenia krótkookresowego planu produkcji
jest zaangażowanych 4-5 lub więcej osób.
Niemal połowa respondentów przyznała,
że do tego zadania zatrudnia 2-3 osoby.
Wiąże się ona pośrednio z kwestią skrócenia cyklu
produkcyjnego, która jest bardzo istotna (+2)
dla 38% badanych i istotna (+1) dla 40%.
Dla zapewnienia wysokiej terminowości znaczenie
ma również minimalizacja czasów przezbrojeń –
dla 42% pytanych jest to cel istotny (+1).
Terminowość
powyżej
5 osób
19%
4-5 osób
17%
1 osoba
15%
2-3 osoby
49%
Menedżerowie odpowiedzialni za planowanie
produkcji muszą sprostać licznym wyzwaniom
wynikającym ze złożoności tego procesu oraz
silnej presji finansowej, organizacyjnej i rynkowej.
Kluczowa okazuje się szybka reakcja na wszelkie
zmiany: popytu, podaży, dostępności surowców
i parku maszynowego. Badania wyraźnie pokazują,
że w cały proces zaangażowanych jest wiele
osób, co z jednej strony podkreśla znaczenie tego
obszaru, z drugiej zaś wskazuje na braki związane
z automatyzacją samego planowania.
„W terminie i po niskich kosztach”
Zdaniem ankietowanych zdecydowanie
najważniejszą spodziewaną korzyścią płynącą
z wykorzystania rozwiązań IT do operacyjnego
planowania produkcji jest zapewnienie terminowości
dostaw. Potwierdziło to aż 75% ankietowanych.
-2
0%
-1
0%
0
8%
+1
17%
+2
75%
Minimalizacja
czasu produkcji
-2 – najmniej ważne
+2 – najbardziej ważne
Minimalizacja
czasów przezbrojeń
-2
0%
-2
0%
-1
0%
-1
8%
0
23%
0
21%
+1
40%
+1
42%
+2
38%
+2
29%
Niezwykle ważne są także kwestie związane
z oszczędnościami. Minimalizacja kosztów
produkcji (dla 46% ankietowanych jest celem
najważniejszym) i maksymalizacja wykorzystania
zasobów (44% oznaczyło to pytanie symbolem +2).
Minimalizacja
kosztów produkcji
Maksymalizacja
wykorzystania zasobów
-2
4%
-2
0%
-1
0%
-1
0%
0
23%
0
23%
+1
27%
+1
33%
+2
46%
+2
44%
29
Gdzie ERP nie może, tam APS dotrze
Firmy są zmuszone do planowania zleceń
produkcyjnych w środowisku swoich prawdziwych,
ograniczonych zasobów, a co za tym idzie
informować klientów o realnym terminie
wykonania. Często przedsiębiorstwa
przechodzą z planowania tygodniowego
na harmonogramowanie dzienne, godzinowe,
a czasami jeszcze dokładniejsze. Niezmiennie,
muszą optymalizować przebiegi w celu obniżenia
kosztów. Używane do tego celu oprogramowanie
najczęściej nie jest w stanie odwzorować realnych
ograniczeń występujących w procesie produkcji.
Badanie koncentrowało się również na analizie
narzędzi wykorzystywanych do wspierania
procesu tworzenia okresowego planu produkcji
w przedsiębiorstwie. Okazuje się, że aż 77%
ankietowanych korzysta z rozwiązań klasy ERP/
MRPII. Co ciekawe podobna liczba (71%)
nadal wspomaga się arkuszami kalkulacyjnymi.
Może to wskazywać na korzystanie z danych
zgromadzonych w systemach ERP, aby później
realizować zadania planistyczne z użyciem tych
danych w Excelu. 19% korzysta z systemu realizacji
produkcji MES, a 5% pracuje na własnych aplikacjach
dedykowanych. 13% przedsiębiorstw wykorzystuje
narzędzia dedykowane do zaawansowanego
harmonogramowania produkcji, czyli systemy APS.
Celem, na który firmy zwracają najmniejszą
uwagę jest minimalizacja wielkości partii/serii
produkcji. Dla 61% respondentów nie ma on
większego znaczenia, natomiast aż 19% uznało
go za zupełnie nieistotny. Minimalizacja stanów
magazynowych i minimalizacja pracy w toku,
to według odpowiednio 18% i 19% cele mało
lub bardzo mało znaczące.
– O ile rynek systemów ERP możemy uznać w Polsce
za dojrzały oraz nasycony, o tyle rynek systemów APS
(Advanced Production Scheduling) wychodzi
Rozwiązania IT wykorzystywane w przedsiębiorstwie
77%
MRPII/ERP (planowanie zasobówprzedsiębiorstwa)
71%
Arkusze kalkulacyjne MS EXCEL
19%
MES (system realizacji produkcji)
13%
APS (zaawansowane planowanie iharmonogramowanie)
Własne aplikacje dedykowane
10%
EDI (elektroniczna wymiana danych)
10%
6%
BI (Business Intelligence)
SFC (system sterowania produkcją)
2%
DRP (planowanie zasobów dystrybucyjnych)
2%
Inne
2%
0%
30
10%
20%
30%
40%
50%
60%
70%
80%
90%
Elementy planowania produkcji wspierane przez system ERP
63%
Główne planowanie produkcji
60%
Planowanie potrzeb materiałowych
25%
Zagregowane planowanie produkcji
21%
Brak
Szeregowanie i harmonogramowanie
19%
Bilansowanie zdolności produkcyjnych
17%
0%
10%
dopiero z początkowego stadium rozwoju. Badania
wskazują, że część firm produkcyjnych podjęła
już decyzję o wprowadzeniu zaawansowanych
narzędzi planistycznych traktując je jako kluczowy
element budowania przewagi nad konkurencją.
13% firm biorących udział w ankiecie jest w swoistej
awangardzie firm produkcyjnych, czerpiąc szereg
korzyści, takich jak lepsza reakcja na zmiany,
przyspieszenie procesu planowania, czy lepsze
wykorzystanie zespołu – podkreśla Paweł
Koprowski, Dyrektor Sprzedaży DSR.
Systemy ERP wykorzystywane są jedynie
do głównego planowania produkcji (63%)
i tradycyjnego planowania potrzeb
materiałowych (60%).
Jeżeli chodzi o najczęstsze metody dystrybucji
okresowych planów produkcji to cały czas
wykorzystywane są najprostsze formy takie
jak arkusze kalkulacyjne (65%) i papierowe
przewodniki produkcyjne (42%). Moduły
systemów klasy MRP/ERP funkcjonują w 29%
przedsiębiorstw. Trochę inaczej sytuacja prezentuje
się w przypadku zbierania danych dotyczących
realizacji krótkoterminowego planu produkcji,
20%
30%
40%
50%
60%
70%
gdzie najwięcej firm wykorzystuje systemy MRP/
ERP (54%). Z arkuszy kalkulacyjnych korzysta 46%,
a z przewodników produkcyjnych 35%.
– Badania potwierdzają, że firmy wciąż stosują
uniwersalne narzędzia wspomagające układanie
harmonogramów, takie jak arkusze kalkulacyjne.
Problem w tym, że nie uwzględniają one kontroli
materiałowej lub stosują uproszczone rozwiązania.
Złożoność procesu harmonogramowania już w średnio
skomplikowanych procesach produkcyjnych zmusza
planistów do ograniczenia harmonogramowania
tylko do wybranych poziomów w strukturze
złożenia produktu (Bill Of Material) – narzędzia
o ograniczonych możliwościach nie pozwalają
na śledzenie zależności pomiędzy poziomami
złożenia produktu – dodaje Paweł Koprowski.
Podsumowanie
Dla firm wytwórczych w procesie planowania
operacyjnego najważniejsza jest terminowość
i optymalizacja kosztów. Mniej istotna jest
minimalizacja stanów magazynowych i pracy w toku,
a za najmniej ważny cel zostały uznane kwestie
z związane z minimalizacją wielkości partii/serii.
31
– Zauważalnym trendem w dziedzinie
zaawansowanego planowania produkcji jest
nacisk na czas dostaw – mówi Paweł Koprowski.
To czynnik wpływający na konkurencyjność
producentów. Zawsze bardzo ważny – szczególnie
dla rynku polskiego określanego jako „wrażliwy
cenowo” – jest aspekt kosztowy. Firmom zależy
na utrzymaniu niskiego kosztu wytworzenia,
co sprawia, że ich towary są cenowo konkurencyjne.
Tu oczywiście nic się nie zmieniło – presja cenowa
jest cały czas mocna, jeśli nie mocniejsza niż kiedyś.
Przedsiębiorstwa do opracowania planów
wykorzystują narzędzia MRP/ERP i arkusze
kalkulacyjne MS EXCEL. Te drugie są głównym
narzędziem wykorzystywanym do dystrybucji
okresowych planów produkcji. Obserwujemy
tendencję wielu firm do poszukiwania
nowych, skuteczniejszych narzędzi planowania
i harmonogramowania produkcji.
Dostawcy ERP zarówno globalni jak i lokalni,
oferują rozwiązania jedynie wspomagające
harmonogramowanie. Są to proste produkty
nie mające cech systemów APS, jedynie
pomagające planistom poprzez proste metody
harmonogramowania, wizualizację obciążenia
zasobów, itd. Ich zastosowanie co prawda pomaga
w utrzymaniu spójności danych (w przeciwieństwie
do rozwiązań opartych na arkuszach kalkulacyjnych),
jednak nie wprowadza jakościowej zmiany
w systemie harmonogramowania.
Ankieta jest dostępna na stronie: http://www.dsr.com.pl/aktualnosci/wypelnij-ankiete-odbierz-nagrode
Piotr Rojek
Jest prezesem zarządu DSR. Odpowiada za kształtowanie strategii rozwoju spółki, współpracę z partnerami
technologicznymi, koordynację obszaru R&D oraz doradztwo w zakresie poprawy efektywności firm produkcyjnych.
Zarządza procesem tworzenia nowych rozwiązań informatycznych. Karierę zawodową rozpoczynał w firmie QAD,
gdzie odpowiadał za obsługę kluczowych klientów firmy. Realizował projekty informatyczne i doradcze m.in. dla takich
firm, jak 3M, AB, JTT Computers, TIM SA, Zetkama. Jest absolwentem Politechniki Wrocławskiej. Odebrał również dyplom
MBA Helsinki School Of Economics i Wyższej Szkoły Bankowej w Poznaniu.
O DSR
Powstała w 2005 roku spółka DSR Sp z o.o. (Dynamika Synergia Rezultat) jest dostawcą rozwiązań informatycznych
wspierających organizację i zarządzanie przedsiębiorstwem w obszarze produkcji i logistyki. DSR proponuje firmom wytwórczym
szeroki zakres usług: od konsultingu biznesowego, poprzez wdrożenia ERP aż do sterowania operacyjnego wspieranego przez:
APS, Automatyczna Identyfikacja – kody kresowe i systemy MES. Klienci DSR to zarówno duże korporacje jak i firmy lokalne.
Wyróżnikiem DSR jest konsekwentna identyfikacja procesów Klienta, w których inwestycja w IT przyniesie najlepsze efekty (ROI).
32
Przeczytaj pierwszą edycję raportu
Optymalizacja IT
Idee na czas zmiany
1
33
Outsourcing:
prościej, bezpieczniej, taniej
Robert Paszkiewicz, ATM S.A.
Dynamiczny wzrost ilości danych generowanych w ostatnich latach wymusza na firmach
i instytucjach poszukiwanie nowych, tańszych rozwiązań IT i alternatywnych modeli
działalności biznesowej. Dotyczy to przedstawicieli praktycznie wszystkich sektorów
rynkowych. Rozwiązania dedykowane działom IT, które sprawdzały się jeszcze kilka lat temu,
dzisiaj stają się dla przedsiębiorstw ciężarem zwiększającym koszty. Postępująca transformacja
rynku IT, której jesteśmy świadkami sprawia, że zarówno małe przedsiębiorstwa, jak i duzi
gracze stanęli przed wyzwaniem tworzenia nowych strategii. Strategii, dzięki którym możliwa
będzie przede wszystkim optymalizacja procesów operacyjnych, a w dalszej perspektywie
także redukcja kosztów.
Wspomniana optymalizacja dotyczy m.in.
przechowywania i przetwarzania danych.
Zapewnienie bezpieczeństwa i ciągłości dostępu
do danych nie jest kwestią wyboru, a czysto
biznesową kalkulacją. Prostym sposobem
jest relokacja zasobów teleinformatycznych
przedsiębiorstwa do zewnętrznego centrum
danych, a więc outsourcing. Jednak aby
przeprowadzić ten proces z sukcesem, należy się
do takiej zmiany odpowiednio przygotować.
Outsourcing tak, ale kiedy i jak?
O outsourcingu firmy powinny myśleć cały czas,
choć decyzja o powierzeniu zasobów podmiotowi
zewnętrznemu może być poprzedzona różnymi
innymi decyzjami czy warunkami. Jednym z nich
może być efekt skali. W większej organizacji
wymagania związane z własną infrastrukturą
sieciową i serwerową rosną w szybszym tempie.
Z kolei mniejsze przedsiębiorstwa nie chcą mnożyć
kosztów, utrzymywać sztabu specjalistów i chętnie
korzystają z outsourcingu.
Dynamiczny rozwój firmy oznacza często
konieczność rozszerzenia kadry, w tym zespołu IT.
Im bogatsze portfolio świadczonych usług i więcej
34
obsługiwanych klientów, tym silniejsza potrzeba
stabilnego i bezpiecznego przechowywania danych,
szybkiego dostępu do sieci, ale też usprawnienia
wszystkich procesów z tym związanych. To z kolei
rodzi potrzebę skorzystania z usług specjalistów,
którzy skutecznie zapanują nad wszystkimi
działaniami nawet wtedy, gdy firma powierzy swoje
zasoby IT zewnętrznemu partnerowi. Przeczy to
powszechnej opinii, że outsourcing wiąże się
z redukcją etatów w firmie.
W przypadku firm średniej wielkości potrzeba
zatrudnienia managera, który będzie nadzorował
pracę zespołu specjalistów IT, delegował zadania,
wyznaczał cele i kontrolował ich realizację – nie
wykonując przy tym pracy operacyjnej – może być
sygnałem do rozpoczęcia poszukiwań partnera
do zarządzania zasobami IT firmy.
Bywa, że sugestia bądź rekomendacja
powierzenia firmowej infrastruktury IT
zewnętrznemu dostawcy wychodzi od osoby
lub działu zajmującego się finansami. Należy
bowiem pamiętać, że infrastruktura sieciowa
to żywy organizm. W sensie dosłownym,
bo należy zatrudnić kompetentnych specjalistów,
którzy będą sprawować pieczę na całością,
ale też w sensie technicznym. Sprzęt bywa zawodny,
ulega awariom, starzeje się – to oznacza kolejne
inwestycje. W przypadku średnich i dużych firm
jest tylko kwestią czasu, aż kadra odpowiedzialna
za płynność i stabilność finansową zwróci uwagę
na generujący coraz większe koszty dział IT.
Plan działania
Po podjęciu decyzji o outsourcingu zasobów
należy określić potrzeby przedsiębiorstwa.
Chodzi tu o sprecyzowanie celów biznesowych
i – przede wszystkim – wymagań wobec dostawcy,
takich jak: zakres współpracy i świadczonych
usług, czas realizacji czy jasne określenie obszarów
odpowiedzialności. Ponadto warto zadbać
o niezbędne szkolenia dla kadry IT, aby przyszła
współpraca była płynna i bezproblemowa.
Najczęściej takie szkolenia, już od pierwszego
etapu projektu, zapewnia partner, który będzie
świadczył usługę kolokacji lub hostingu.
Przygotowując plan należy także określić obszar
największego ryzyka. W przypadku przenoszenia
zasobów do centrów kolokacyjnych dostawcy, będą
to oczywiście dane firmy. Zarówno te o charakterze
wewnętrznym, a więc dotyczące działalności
samego przedsiębiorstwa, jak i zewnętrzne –
dane klientów, akcjonariuszy czy partnerów.
Bardzo ważnym elementem jest także włączenie
w cały proces pracowników, którzy potem będą
odpowiedzialni za kontakt z firmą świadczącą
usługę outsourcingu. Mowa tu o wszystkich
etapach projektu – od fazy początkowej
po fizyczne przeniesienie zasobów. Tak samo
istotne jest jasne określenie osób odpowiedzialnych
za projekt po stronie partnera outsourcingowego,
w tym ich zakresu obowiązków. W biznesie,
gdzie w grę wchodzi bezpieczeństwo poufnych
i wrażliwych danych, wzajemne zaufanie powinno
być priorytetem.
Kierunek: centra danych
Związany z potrzebą optymalizacji procesów
biznesowych, outsourcing usług do centrów
danych spowodowany jest kilkoma dodatkowymi
czynnikami. Z pewnością jest to postępująca
digitalizacja zarówno biznesu, jak i sektora
publicznego, rozwój i standaryzacja technologii
LTE, rozwój modelu e-commerce, wzrost liczby
urządzeń mobilnych i ilości przesyłanych danych
oraz rosnące zapotrzebowanie na transmisje
wideo w jakości HD/UHD, rozwój gier i mediów
społecznościowych. Coraz większy wpływ
na popyt na usługi w centrach danych mają
też rozwiązania chmurowe.
Z terminami: kolokacja, hosting czy cloud
computing polski rynek zdążył się już oswoić.
Nie wywołują już one takich emocji i wątpliwości,
jak jeszcze kilka lat temu. Firmy zrozumiały,
że zarządzanie rosnącymi w ekspresowym
tempie wolumenami danych jest często ponad
ich możliwości organizacyjne i infrastrukturalne.
Dość powiedzieć, że do 2020 roku ilość
wygenerowanych przez ludzkość danych wyniesie
40 bilionów gigabajtów. To aż dziesięciokrotnie
więcej niż dziś. Coraz bardziej istotna staje
się ochrona tych wszystkich informacji przed
dostępem przez niepowołane osoby.
Budować czy wynajmować?
Alternatywą dla przeniesienia swoich zasobów
do wybranego centrum danych jest oczywiście
stworzenie własnej serwerowni i powierzenie
zarządzania nią wykwalifikowanemu personelowi IT.
Jednak wybudowanie serwerowni średniej
wielkości, która spełni wszystkie standardy
bezpieczeństwa, to koszt kilkudziesięciu milionów
złotych. Do tej kwoty należy jeszcze dodać
przyszłe wydatki związane z utrzymaniem obiektu.
Nie wszyscy są w stanie sprostać tak wysokiemu
progowi inwestycyjnemu.
35
To z kolei przekłada się na dynamiczny wzrost
zainteresowania usługami kolokacji i hostingu.
W tym modelu firma zewnętrzna świadczy usługę
na określonych w kontrakcie warunkach i w zamian
za wynegocjowaną stawkę oferuje parametry
usługi regulowane przez SLA (Service Level
Agreement). Daje tym samym gwarancję jakości
i ułatwia kontrolę wydatków ponoszonych na
funkcjonowanie środowiska IT. Na niej spoczywa
także utrzymanie zasobów, ale i wsparcie rozwoju
biznesu klienta poprzez gotowość do zaspokojenia
jego zmieniających się potrzeb. U elastycznego
dostawcy klient w miarę swojego rozwoju
nie musi rozbudowywać własnej infrastruktury,
ale na życzenie otrzymuje do swojej dyspozycji
odpowiednią ilość nowych zasobów. Ponadto
korzystanie z takich produktów, jak serwery
dedykowane w zewnętrznych centrach danych,
pozwala też na elastyczność w doborze konfiguracji
sprzętowej i swobodę ewentualnej rezygnacji
z usługi w dowolnym momencie.
Jeśli wynająć, to od kogo?
Przed podjęciem decyzji o tym, komu powierzymy
nasze zasoby, warto dobrze przyjrzeć się ofercie
rynkowej i sprawdzić, które obiekty są nowoczesne
i utrzymują najwyższe standardy. Powód jest
prosty. Centra danych są różne, a o bezpieczeństwie
decydują często detale. Warto więc sprawdzić
referencje dostawców i wybierać tych
wypróbowanych i posiadających odpowiednie
doświadczenie. Czego więc oczekiwać?
Poza przytoczoną wcześniej optymalizacją kosztów,
kluczowe dla każdej firmy jest bezpieczeństwo
danych oddawanych „pod opiekę” zewnętrznego
dostawcy. Warto więc sprawdzić, czy centrum
danych jest wyposażone m.in. w redundantną
klimatyzację oraz niezależne tory zasilania
miejskiego i wewnętrznego z podtrzymaniem
UPS i dodatkowym agregatem prądotwórczym.
Równie ważna jest łączność telekomunikacyjna
w obiekcie, w tym niezawodny dostęp do Internetu,
umożliwiający szybki i stabilny transfer danych.
Atutem dostawcy jest też dysponowanie
powierzchnią kolokacyjną w różnych lokalizacjach,
co jest niezbędne do świadczenia usługi typu DRC
(DisasterRecovery Center). Dzięki temu usługodawca
może zapewnić klientowi nieprzerwany dostęp
do danych nie tylko na poziomie pojedynczych
systemów, ale i całego obiektu.
Ponadto należy sprawdzić mechanizmy, które
zapewniają właściwy poziom kontroli dostępu
do danych i informacji oraz dostępu fizycznego
do kluczowych elementów infrastruktury
teleinformatycznej. Powinna to być nie tylko
ochrona i system kontroli dostępu, w tym
monitoring CCTV, ale też utrzymanie systemu
gaszenia oraz opieki operatorskiej i serwisowej.
Poziom bezpieczeństwa dodatkowo podnoszą:
możliwość wymiany w krótkim czasie podzespołów
lub uszkodzonego serwera, ochrona sieci (w tym
rozwiązania firewall) i system anty-DDoS, a także
backup danych i zabezpieczenie dostępu do paneli
36
administracyjnych za pomocą certyfikatu SSL,
który szyfruje i chroni przed przechwyceniem
poufne dane przesyłane pomiędzy serwerem
a użytkownikiem.
Firma dokonująca wyboru zewnętrznego
centrum danych powinna dowiedzieć się także,
czy jego lokalizacja jest właściwa ze względu
na polskie i unijne prawo w zakresie ochrony
danych osobowych. Jednocześnie warto zawrzeć
z dostawcą usług centrów danych umowę typu
SLA (Service Level Agreement), która pozwala
zdefiniować m.in. zakresy odpowiedzialności
po stronie dostawcy i użytkownika oraz
podnosić poziom jakości i bezpieczeństwa
usług w oparciu o najlepsze praktyki.
Robert Paszkiewicz
Od blisko 10 lat związany z branżą IT, w firmach technologicznych zdobywał różnorodne doświadczenie na styku biznesu
i techniki, specjalizując się w zarządzaniu produktami hostingowymi, rozwiązaniami w obszarze bezpieczeństwa i usługami
w centrach danych. Obecnie, jako Dyrektor Marketingu w firmie ATM S.A., oferującej usługi telekomunikacyjne pod markami
ATMAN i Thinx Poland, tworzy strategię marketingową i produktową spółki. Wcześniej pracował m.in. w home.pl S.A.,
prowadząc działania promocyjne firmy jako Marketing Manager, a jako Kierownik Produktu „Bezpieczeństwo” odpowiadał
za wdrożenia nowych rozwiązań zwiększających bezpieczeństwo stron www i chroniących komputery klientów.
Prywatnie pasjonat górskich wycieczek i miłośnik fotografii.
37
Optymalizacja, oszczędności
i transformacja w obszarze danych
Urszula Jaworska
Cały ten cyfrowy zgiełk
Współczesny biznes często boryka się z szumem
informacyjnym. Chaosem wynikającym
z napływających danych. Ich ilość, źródła
i formaty są tak wielorakie, że rodzi to zupełnie
nowe problemy operacyjne. Niespodziewanie
powstają także nowe szanse dla modernizacji
biznesu. Cyfrowy wszechświat, obejmujący ogół
danych wytworzonych przez ludzkość, podwaja
się co dwa lata. Pomiędzy rokiem 2013 a 2020
wzrośnie dziesięciokrotnie – od 4,4 bilionów
gigabajtów do 44 bilionów gigabajtów1.
Dwie trzecie danych jest generowane lub
rejestrowane przez konsumentów lub pracowników,
ale odpowiedzialność za 85 proc. światowych
danych ponoszą przedsiębiorstwa. Według
IDC liczba urządzeń lub przedmiotów, które
można połączyć z Internetem, zbliża się obecnie
do 200 mld, a 7 proc. z nich (14 mld) jest już
podłączonych do Internetu i komunikuje się.
IDC przewiduje, że do 2020 r. liczba podłączonych
do sieci urządzeń wzrośnie do 32 miliardów
i będzie wytwarzać 10 proc. światowych danych2.
Zmiana ilości doprowadziła do zmiany jakości.
Zmiana skali spowodowała zmianę statusu.
Taki rozwój wypadków przewidywał Bob Metcalfe.
Prawo Metcalfe’a mówi, że użyteczność sieci
zwiększa się proporcjonalnie do kwadratu ilości
węzłów podłączonych do niej.
Big data – jak zacząć
Przetwarzamy dane ponieważ niosą użyteczne
dla biznesu informacje. Informacje zinterpretowane
w kontekście posiadanej wiedzy, przez
doświadczonego managera mogą przynieść
Klasycznym sposobem wyłuskiwania informacji
i wiedzy z baz danych są w przedsiębiorstwach
hurtownie danych (ang. data warehouse (mining)).
Krzysztof Sobieszek podczas spotkania Warsaw
Hadoop User Group stwierdził, że big data zaczyna
się kiedy „złamie się” łopata do data miningu.
Kiedy ilość (ang. volume), zmienność (ang. velocity)
i różnorodność (ang. variety) są na tyle duże,
że klasyczne podejście ukazuje swoją słabość.
Typowy nietrywialny projekt hurtowni danych
trwa co najmniej 1 rok3. Wymaga zdefiniowania
celów biznesowych i modelu biznesowego pod
kątem hurtowni danych, przeniesieniu modelu
biznesowego na poziom modelu danych,
opracowaniu strategii budowy hurtowni,
1 badanie Digital Universe firmy EMC
2 według IDC
3 ocena eksperta Sean’a Kelly
Dane, informacje, wiedza
38
biznesowi nową wiedzę. Skoro 2/3 danych generują
nasi klienci i pracownicy, to wiedza ta może mieć
wartość biznesową. Przetwarzamy duże zbiory
danych także dlatego, że już można. Legendarny
naukowiec–przedsiębiorca, Oren Etzioni, zajmujący
się rozkręcaniem biznesów operujących ogromnymi
ilościami danych, zwraca uwagę, że kilka lat
temu przetwarzanie big data byłoby niemożliwe.
Przetwarzanie i gromadzenie danych było zbyt
drogie. Ponieważ koszty operowania danymi
spadły, możliwe jest także operowanie na danych,
które przestały już być użyteczne. Przydatność
danych nie kończy się już z chwilą osiągnięcia
celu, dla którego są gromadzone… Duże, zmienne,
różnorodne i niestrukturyzowane zbiory danych
powodują, że ich przetwarzanie i analiza jest
bardziej złożona, ale jednocześnie wartościowa.
Lapidarnie ujmuje to slogan: „śmieci na wejściu,
wartość na wyjściu” (ang. garbage in, value out).
założeniu centralnego repozytorium metadanych,
wyborze „tematu” dla pierwszej hurtowni danych,
identyfikacji potrzeb informacyjnych możliwych
do zaspokojenia z poszczególnych źródeł oraz
zdefiniowaniu danych wejściowych do hurtowni
wraz z algorytmami kontroli ich jakości. Trudno
takie „narzędzie” zmodyfikować, by nie wspomnieć
o podstawowej trudności – jak przetwarzać
dane, których znaczenie i model biznesowego
wykorzystania mamy dopiero odkryć...
W klasycznym podejściu (ang. business
intelligence) analizuje się przeszłość
w kontekście znanego modelu biznesowego
i jego potrzeb informacyjnych. Tworzone
raporty, przekroje danych, wizualizacje
mogą dostarczyć wartościowych informacji
o kondycji przedsiębiorstwa. Jeśli zależy nam
na optymalizacji i utrzymaniu biznesu już
istniejącego, badaniu obecnych klientów jest
to podejście wystarczające. Jeśli biznesowi
zależy na poszukiwaniu nowych dróg rozwoju,
analizie klientów potencjalnych, poszukiwaniu
nowych transformacji można dokonać właśnie
wprowadzając podejście big data. Wszystko
zaczyna się więc od odpowiedzi na pytanie –
na czym zależy biznesowi?
Data Science w Polsce
Podejście big data bliższe jest rozwiązywaniu
dochodzeniom Sherlocka Holmes’a. Wymaga
także odpowiednich predyspozycji. W metodzie
tej analityk (ang. data scientist) wykorzystując
wielorakie zbiory danych, różnych formatów,
różniące się strukturą, korzystając przy tym
z różnych narzędzi dedukuje jakie zachodzą
pomiędzy nimi związki i jakie biznesowe
konsekwencje z tego wynikają. W metodzie
tej liczy się szczególnie umiejętność tworzenia
nowych pytań, poszukiwanie odpowiedzi (raczej
niż raportowanie), prognozowanie, interakcja
z danymi. Wyróżnikiem jest również to, że big data
często dotyczy danych napływających na bieżąco
(ang. real-time) a nie tylko danych przeszłych.
Z drugiej strony ogromna ilość danych badanych
powoduje, że niekoniecznie trzeba skupiać się
na dokładnym wyniku. Często przybliżony wynik
mówi wystarczająco dużo o ile analiza nie wykaże,
że wyjątki mają znaczenie i mówią o czymś
zupełnie innym, albo zwracają uwagę na szczegół
dotychczas niezauważany. Wbrew pozorom
big data wymaga solidnego przygotowania
i wiedzy, bo często korelacja pomiędzy danymi
nie oznacza związku przyczynowo – skutkowego
(ang. correlation is not causation). Przykładowo
prawdziwa jest taka oto korelacja, że Szwajcarzy
spożywają najwięcej czekolady i mają także
najwięcej noblistów. Nie wynika z tego jednak,
że jeśli zwiększymy spożycie czekolady mamy
większą szansę na Nobla.
39
Istnieją także nieoczywiste, zaskakujące związki
wynikania. Brytyjski tygodnik The Economist ustalił
mianowicie, że porównanie cen Big Maca w różnych
krajach do jego ceny w USA pozwala na ustalenie,
czy waluty danych krajów są przewartościowane
czy niedowartościowane. The Economist wprowadził
Wskaźnik Big Maca w 1986 r. i od tamtego czasu
raz do roku publikuje jego obliczenia.
W Polsce możliwość wymiany doświadczeń
w obszarze big data oferują spotykające się
regularnie grupy skupiające entuzjastów big data,
np.: Data Science Warsaw, Warsaw R User Group
Meeteup, Warsaw Hadoop User Group czy Warsaw
Cassandra User. Jak mówi chińskie przysłowie
podróż tysiąca kroków zaczyna się od postawienia
pierwszego.
Urszula Jaworska
Analityk biznesowy i data scientist.
Z wykształcenia fizyk cząstek elementarnych, zawodowo związana z branżą usług IT. Drogę zaczynała jako Kierownik
Projektów (m. in. projekt STAREO dla ING Bank Śląski – pierwsze w Polsce masowe wdrożenie nowego standardu
placówek detalicznych banku), obecnie zajmuje się analizą biznesową i zagadnieniami big data. Brała udział w projektach
wdrożeniowych w bankowości (PKO BP, Nordea), sektorze publicznym (PKP PLK S.A., PKP Centrala, ZUS), konsultingowych –
metodyki zarządzania projektami (kolejnictwo, gazownictwo), Data Governance (ZUS). Zainteresowania: „poszukiwanie
diamentów” w dużych zbiorach danych; wędrówki górskie.
40
Nowoczesne
centrum danych
Mobilność
Bezpieczeństwo IT
1
1
1
Raporty i ich omówienia na portalu it-manager.pl
41
Najważniejsze są relacje
Czasem, kiedy IT wychodzi z pomysłem optymalizacji, to często kończy się na niczym.
Biznes źle się z tym czuje. Pojawiają się nawet zarzuty, że IT jest ogonem i ten ogon chce
kręcić psem. Dlatego prawdziwą sztuką jest zainspirowanie biznesu, żeby zgłosił pomysł
wymyślony przez IT. Raz to się udaje, a innym razem nie – mówi Krzysztof Jarosz, CIO w firmie
PLL LOT, zdobywca tytułu Diament CIO „Strażnik transformacji” w konkursie CIO Roku 2014
w rozmowie ze Stanisławem Bochnakiem (Deloitte) oraz Robertem Jesionkiem (it-manager.pl).
Stanisław Bochnak, Robert Jesionek: W jaki
sposób się dzisiaj oszczędza? Jakie możliwości
ma do dyspozycji CIO?
Krzysztof Jarosz: Oszczędzać można zasadniczo
na dwa sposoby. W pierwszej kolejności poszukujemy
maksymalnie prostych rozwiązań, natomiast innym
sposobem jest spojrzenie na całość procesów i jego
kosztów oraz możliwych oszczędności, nie tylko
w obszarze wsparcia informatycznego tego procesu.
Jest kilka sposobów na oszczędzanie, np.: w zakresie
umów suportowych, liczby osób zaangażowanych
w realizację procesów, czy automatyzacji procesów.
Możemy również przeprowadzić inwentaryzację
oprogramowania i szukać oszczędności w tym
obszarze, albo w przypadku umowy suportowej,
zamiast kupować u producenta, można zrobić zakupy
u partnera, gdzie nie tracąc na jakości, uzyskamy
efekt ekonomiczny. Te oszczędności po prostu
trzeba zrealizować. Prawdziwe oszczędzanie,
prawdziwa praca zaczyna się później.
Niezbędne w oszczędzaniu są zmiany strukturalne.
Czy tego chcemy czy nie, informatyka jest obszarem
wspierającym. Wyjątkami są bankowość, czy handel
elektroniczny, gdzie IT jest siłą napędową biznesu,
bez której nic nie można zrobić. Znajduje to
odzwierciedlenie w hierarchii organizacyjnej:
w tych branżach są członkowie zarządu
odpowiedzialni tylko i wyłącznie za IT.
Procesowy model oszczędzania, który rozpoczyna
się od spojrzenia na sposoby wspierania biznesu,
42
pozwala na optymalizację w skali całej organizacji.
Weźmy za przykład procesy księgowe, w które
są zaangażowane nie tylko osoby z księgowości,
nie tylko sam system, ale także osoby składające
zamówienia, potwierdzające wykonanie usług,
czy przyjmujący towar do magazynów itd.
Dzięki wykorzystaniu w konkretny sposób technologii
możemy oszczędzić koszty całego procesu.
To nie są koszty stricte IT, bo czasem trzeba najpierw
zainwestować w automatyzację procesu, żeby całość
informacji była lepsza, bardziej wiarygodna. Obniża
to istotnie koszt procesu. Oszczędności w firmie
to nie tylko temat IT czego nie chcą zrozumieć
niektórzy CFO, ja akurat mam szczęście.
No właśnie, czy pomysły na oszczędzanie
powinny wychodzić od IT czy od biznesu?
Osobiście chyba nigdy nie wyszedłem z takim
pomysłem. Nigdy nie rzuciłem hasła: oszczędzajmy!
Raczej proponowałem poszukiwanie optymalizacji
procesów, usprawnianie przepływu informacji.
Dokładnie tak to wyglądało, kiedy ostatnio
prowadziliśmy w firmie dyskusje dotyczące
wdrożenia platformy zakupowej. Inne znaczenie
ten projekt miał dla działu zakupów, inne
dla mnie. Kiedy przyszedłem do organizacji
proces zaopatrzeniowy nie miał odzwierciedlenia
systemowego, nie było wystarczających informacji.
Pewne trudności w tym obszarze są zrozumiałe,
ale powinny mieć charakter wyjątków, a nie stanowić
standard. Próba przekonania biznesu do rozpoczęcia
projektu polega na pokazaniu, co takie rozwiązanie
może dać firmie, np.: czy przynosi controllingowi,
czy zarządzającym płynnością informacje
na temat cashflow i przewidywanych wydatków.
Wprowadzenie rozwiązań systemowych pozwala
uwolnić się od ręcznego wprowadzania danych.
Bezpośrednią przyczyną inicjatywy z mojej strony
była faktura, która trafiła do mnie, żebym zatwierdził
ją do płatności. Za chwilę dostałem kolejną,
i kolejną, i kolejną… To spowodowało u mnie
reakcję chyba dość oczywistą: po co ja to robię?
Jaka jest wartość dodana z tego, że dyrektor biura
zatwierdza faktury do płatności? Według mnie
żadna. Jeśli faktura jest zgodna z zawartą wcześniej
umową, to po co to robić? Próba pokazania stronie
księgowej, że być może nie trzeba uzyskiwać tych
potwierdzeń, została skwitowana stwierdzeniem:
taka jest procedura… No, ale przecież procedura to
coś, co można zmienić. Życie rządzi procedurą, a nie
odwrotnie – jeśli oczywiście zachodzi taka potrzeba.
Jak ostatecznie udało się Panu przekonać
księgowość?
W takich działaniach ważną rolę mają do odegrania
sojusznicy wewnętrzni. Czasem to jest łatwiejsze,
czasem trudniejsze. Absolutnie kluczowa jest także
znajomość biznesu. Bardzo często podnoszona
przez oponentów.
Zawsze próbowałem działać tak, że jeśli przychodzili
do organizacji ludzie, którzy nie znają biznesu –
w tym wypadku lotnictwa – to ja ich namawiałem,
żeby angażowali się we wszelkiego typu inicjatywy.
Przykładowo, w inicjatywach na poziomie Star
Alliance zawsze są nasi przedstawiciele. Nawet jeśli
nie mamy w danym obszarze wiedzy, to przecież
możemy ją tam zdobyć. Właśnie po to, żeby później
z biznesem rozmawiać ich językiem. Może nie
poznamy nigdy biznesu idealnie, ale też nie taka
jest nasza rola. Nie musimy być lepsi, wystarczy,
że będziemy partnerem dla biznesu.
Na poziomie back office LOT niczym się nie różni
od innych firm. Natomiast prawdziwe różnice
pojawiają się na poziomie operacji lotniczych.
To nie jest biznes, który jest podobny do energetyki,
czy chemii. Po przyjściu do firmy, przez pierwsze
kilka miesięcy codziennie bolała mnie głowa.
Od ilości przyjmowanych informacji. Teraz jest lepiej,
choć nadal nie rozumiem tego biznesu idealnie.
43
Natomiast rozumiem go na tyle, że przynajmniej
poruszam się po organizacji swobodnie.
Z podziwem patrzyłem na szefów IT w innych
spółkach należących do Star Alliance, w jaki sposób
poruszają się w tym biznesie. To jednak przykłady
osób, które pracują w lotnictwie przez wiele,
wiele lat. Moje doświadczenie zdobywane w innych
branżach, daje mi tę przewagę, że jestem bardziej
otwarty, elastyczny na sposoby realizowania zadań.
Czy jako dyrektor IT zawsze zwracał Pan
uwagę na oszczędzanie? Czy przełożeni
zawsze wywierali taki nacisk na oszczędzanie?
Czy jednak zjawiska z tym związane
nasiliły się ostatnio?
Z natury jestem oszczędny, w dodatku skończyłem
ekonomię. Liczenie jest więc dla mnie sprawą
naturalną. Ale kiedy coś jest ważne i przyniesie
organizacji wartość dodaną, wtedy nie oszczędzam.
Czy podejście moich szefów w tym zakresie się
zmieniało? Wszędzie gdzie pracowałem liczono
pieniądze, w jednej organizacji mniej, w drugiej
bardziej skrupulatnie. Często tych oszczędności
szukano w procesach, w usprawnianiu biznesu.
Tak było w spółce chemicznej, która po ciężkiej terapii
szokowej przygotowywała się do wejścia na giełdę.
Warto dodać, że pieniądze to jest jedyna rzecz,
która broni się zawsze. Do każdego CFO i CEO
docierają przede wszystkim liczby. Gorzej jest kiedy
przełożeni oczekują wyniku wyrażonego w liczbie,
kiedy tak naprawdę proste oszczędności już zostały
zrobione. Wtedy pojawia się konieczność przejścia
na poziom, na którym dyskutujemy koszty procesów,
a nie tylko koszty IT. Kiedy to się nie udaje, pojawia
się poważny problem.
Znowu wracamy do kwestii relacji.
Jak zabierać się do zmian strukturalnych,
żeby osiągnąć sukces?
Bardzo dużo zależy od indywidualnych relacji
między ludźmi. Jedne są lepsze, inne gorsze.
44
Początki zwykle są łatwe. Po przyjściu do nowej
organizacji dysponujemy kredytem zaufania. Później
zaczyna się robić trudniej. Zwłaszcza, jeśli nie ma
jeszcze konkretnych efektów, może pojawiać się
nieufność. Kiedy w biznesie istnieje silna koalicja
przeciw danemu projektowi, to bez względu
na to co się chce zrobić, to i tak się nic nie zdziała.
Relacje budujemy, po to żeby mieć wzajemne
zaufanie i móc współpracować. Komunikacja
i rozmowa, złapanie czegoś, czasem wystarczy
jedno spotkanie, kilka słów, wokół których
można coś zacząć budować.
A czy dostrzega Pan różnice w komunikacji CIO
z różnymi dyrektorami w zależności od tego
czym się zajmują? Czy CIO jest bliżej do CFO
niż np. do dyrektora sprzedaży, czy kadr?
Myślę, że bardziej to zależy od osobowości
niż pełnionych funkcji. Czy nam się to podoba
czy nie, to pracujemy z ludźmi. Możemy niektórych
traktować jako nie do końca rozsądnych,
ale pracujemy z nimi. Są rożne sposoby
postępowania w takiej sytuacji.
Szef marketingu może być taki, że CIO zbuduje
z nim relację lub nie. Z drugiej strony, z niektórymi
przedstawicielami biznesu współpracujemy częściej,
bardziej intensywnie i w tym sensie może być nam
do nich bliżej, bo relacje z nimi musimy budować.
To np. szef finansowy, bo zwykle to nasz przełożony.
Relacja z CEO, który ma wpływ na całą organizację
jest niezbędna. Podobnie COO ma często dużo do
powiedzenia jak działa organizacja. CIO starają się
budować relacje z tymi osobami. Co ważne, te relacje
się zmieniają i będą się zmieniać. Niektóre funkcje
będą w przyszłości ważniejsze dla CIO niż są obecnie.
W konkursie CIO Roku 2014 został Pan
wyróżniony tytułem Diament CIO „Strażnik
transformacji”. Co zadecydowało o przyznaniu
tego tytułu?
Można powiedzieć, że projekt IT, który jest
elementem procesu restrukturyzacji Spółki.
Każdy proces restrukturyzacyjny jest bowiem
pewnego rodzaju projektem. To, co było istotne
z punktu widzenia mojej organizacji, to była
zmiana obszaru IT tak, żeby stanowił on wsparcie
dla biznesu. Sądzę, że wyróżnienie zostało
przyznane za całokształt działania.
Po pierwsze, cały obszar IT został scentralizowany.
Istnieje jedna odpowiedzialność za informatykę –
proces zarządzania umowami jest scentralizowany.
Po drugie, zaczęliśmy mierzyć organizację. Wszystkie
procesy zostały opisane, a usługi zdefiniowane.
Po trzecie – ten element trwa – powolna zmiana
rozwiązań, żeby były bardziej dopasowane
do oczekiwań biznesu i tego, co można dzięki
temu uzyskać. Np. podniesienie niezawodności
rozwiązań przy mniejszych kosztach.
Udało się zdefiniować usługi, przypisać parametry
SLA, to nie znaczy jednak, że wszystko zostało
zrobione. Mam wizję gdzie chcę iść. Wiele nadal
przed nami. Przykładowo wdrożenie pełnego
modelu chargé back, żeby biznes w pełni rozliczać
za korzystanie z usług IT. Zostało jeszcze sporo
trudnych rzeczy do zrealizowania. Bez tego da się
żyć, ale dzięki nim będziemy mogli wejść na wyższy
poziom, by żyło nam się łatwiej.
Jaka jest geneza projektu
restrukturyzacyjnego w IT?
Specyfika organizacji sprawiła, że często zmieniały
się zarządy i szefowie IT. Obecny zarząd odczuwał,
że nie jest tak jak potrzeba. Kiedy przychodziłem
do firmy, to komunikat był taki, żebym się przyjrzał
i zaproponował zmiany. Bo IT nie działa idealnie.
Nie była to propozycja zewnętrznej organizacji. Wraz
z Zespołem zrobiliśmy analizę, przygotowaliśmy plan
i zaczęliśmy go realizować. Kluczowe było to, że nikt
nam nie pomagał, ale też nikt nie przeszkadzał.
Chyba dzięki temu udało się tak wiele zrobić.
Krzysztof Jarosz
Aktualnie odpowiedzialny za stworzenie, a następnie realizację
strategii IT w PLL LOT S.A. Współtwórca sukcesu związanego
z zastosowaniem przy budowie strony internetowej Polskich
Linii Lotniczych LOT oraz przy tworzeniu aplikacji na smartfony
i tablety technologii tzw. Cloud Computing. LOT jest jedną
z pierwszych linii lotniczych na świecie, która skorzystała
z tej metody, co docenił magazyn Computerworld,
który uhonorował polskiego przewoźnika w konkursie
„Best in Cloud”.
W latach 2009 – 2011 pełnił funkcję Dyrektora Departamentu
Teleinformatyki w Polskiej Grupie Energetycznej S.A., a także
funkcję Prezesa Zarządu PGE Systemy S.A. gdzie zbudował
Centrum Usług Wspólnych w zakresie IT poprzez przejęcie
odpowiedzialności za obszar IT w kilku spółkach Grupy
Kapitałowej PGE oraz opracował – w celu optymalizacji
rozwiązań IT oraz podnoszenia efektywności kosztowej
świadczenia usług informatycznych – usługowy model
współpracy IT z jednostkami biznesowymi (w tym katalog
usług oraz umowy SLA wraz ze stosownymi parametrami
świadczenia usług).
W latach 2004 – 2007 w Ciech S.A. powołał do życia Centrum
Usług wspólnych na bazie spółki Chemia.com oraz zakończył
z sukcesem wdrożenie wspólnej platformy systemowej
(na bazie rozwiązań Oracle E-business Suite) wspierającej
procesy biznesowe w obszarze finansów, controlingu,
sprzedaży, zaopatrzenia, gospodarki magazynowej w trzech
Spółkach Grupy tworzących Dywizję Sodową oraz produkcji
i remontów w dwóch Spółkach Grupy. Dzięki wdrożeniu tej
platformy możliwa stała się całościowa analiza łańcucha
wartości w zakresie przekrojowych analiz zarządczych
zarówno poziomu operacyjnego, jak i strategicznego.
W wielu organizacjach przeprowadził zmiany i restrukturyzacje
funkcji IT osiągając wymierne efekty ekonomiczne
i jakościowe. Odpowiadał za realizację projektów
informatycznych w tym z zakresu rozwiązań klasy ERP.
Posiada również doświadczenie z pracy po drugiej stronie –
u integratora rozwiązań informatycznych.
Ukończył Szkołę Główną Handlową na kierunku Zarządzanie
i Marketing, w roku 2004 uzyskał dyplom MBA w Centrum
Kształcenia Managerów przy Uniwersytecie Warszawskim,
zaś w latach 2001 – 2004 uzupełniał swoją wiedzę w PolskoJapońskiej Wyższej Szkole Technik Komputerowych i Szkole
Wyższej Psychologii Społecznej.
45
Lean IT – doskonalenie
na wiele sposobów
Rafał Nessel, Deloitte Polska
Jest wiele różnych definicji Lean IT, zapewne tyle, ile publikacji na ten temat. Najprościej
mówiąc – jest to zastosowanie koncepcji Lean, czyli szczupłego zarządzania, w obszarze IT
z uwzględnieniem jego specyfiki. Bez znajomości „zasad Lean” lub dodatkowego komentarza
niewiele to jednak wyjaśnia.
Zasady Lean IT:
•Wartość dla klienta – identyfikacja i dostarczanie
klientom tego, co stanowi dla nich wartość
•Strumień wartości – zrozumienie całego procesu,
identyfikacja, gdzie tworzona jest wartość,
eliminacja marnotrawstwa
•Przepływ bez zakłóceń – optymalizacja
przebiegu procesów, eliminowanie opóźnień,
koncentracja na kluczowych czynnościach
•Sterowanie przez popyt – dostarczanie usług
wyłącznie w odpowiedzi na stwierdzone
potrzeby klienta
•Dążenie do doskonałości – ciągłe doskonalenie
usług i procesów, identyfikowanie i rozwiązywane
problemów
•Szacunek dla ludzi – zaufanie, rozwój
pracowników oraz ich zaangażowanie
w proces doskonalenia
Powyższa definicja nie pokazuje również
potencjału korzyści wynikających z zastosowania
koncepcji Lean w zarządzaniu IT, ani różnorodności
możliwych zastosowań. W Deloitte podkreślamy,
że Lean IT to wszechstronne ramy dla stworzenia
trwałego nastawienia na ciągłe doskonalenie IT
w celu poprawy efektywności, jakości, czasu
dostarczania rozwiązań oraz uczynienia
funkcjonowania IT bardziej przewidywalnym
i niezawodnym.
46
Podsumowując, Lean IT to z jednej strony
fundamentalne zasady, niekiedy określane
nawet filozofią Lean, z drugiej strony zestaw
licznych narzędzi, które mogą być wykorzystane
do praktycznego wdrożenia tych zasad.
Ani poszczególne zasady, ani tym bardziej
narzędzia w większości istniejące przed
pojawieniem się Lean, nie są specyficzne dla
Lean IT. Jednak spójne połączenie ich razem
daje nowe możliwości świadomego doskonalenia
funkcjonowania IT w organizacji. Oba komponenty
wzajemnie się uzupełniają. Zasady zapewniają
kontekst, ukierunkowanie, motywację, nadają sens
zastosowaniu poszczególnych narzędzi i praktyk.
Natomiast narzędzia pozwalają na operacyjne
wdrożenie usprawnień wspierających realizację
tych zasad.
Dlaczego Lean IT?
Obecnie działy IT stoją przed szeregiem wyzwań.
Nadal mają ograniczenia budżetowe i dużą
presję na efektywność. Napotykają trudności
z zatrudnianiem i zatrzymaniem wykwalifikowanych
i zaangażowanych pracowników. Zarazem biznes
oczekuje nie tylko stabilności i niezawodności
rozwiązań IT, ale szybkiego wdrażania zmian
w odpowiedzi na potrzeby biznesu, zmiany
na rynku i nowe możliwości dostarczane
przez błyskawiczny postęp technologiczny1.
1 Badanie CIO 2013
Koncepcje Lean pomagają skupić się na tym,
co najważniejsze (dostarczanie wartości dla biznesu
i klientów), poprawiać efektywność (eliminacja
marnotrawstwa – zarówno w aspekcie kosztów
jak i ograniczonego czasu zespołu IT), przyspieszyć
dostarczania zmian i zapewnić ciągłą poprawę
jakości usług IT.
Podejście do wdrożenia Lean IT
Zakres wdrożenia zasad Lean w obszarze IT
oraz wspierających je rozwiązań może być
bardzo różny. Zależy od potrzeb organizacji, jej
sytuacji, priorytetów, poziomu dojrzałości oraz
współpracy pomiędzy IT a biznesem. Na początku
może skupiać się na wewnętrznym doskonaleniu
funkcjonowania departamentu IT. Większy
potencjał poprawy ma uwzględnienie kontekstu
biznesu oraz doskonalenie całych procesów
bez ograniczania zmian do działu IT.
Powodzenie wdrożenia zmian zgodnie z zasadami
Lean IT wymaga efektywnego połączenia
dobrego zrozumienia Lean oraz znajomości
funkcjonowania IT i wykorzystywanych w IT
metodyk i standardów. Zrozumienie natury
działalności IT pozwala na dobranie odpowiednich
narzędzi, np. Lean Six Sigma może być
odpowiednia do działalność operacyjnej w IT,
wymagającej wysokiej niezawodność i obejmującej
wiele powtarzalnych procesów, ale niekoniecznie
do przedsięwzięć innowacyjnych.
Umożliwia to również przełożenie abstrakcyjnych
koncepcji Lean na realia IT. Np. ograniczanie
produkcji w toku w IT jest możliwe poprzez
odpowiednie zarządzanie portfelem zmian
i projektów, by były zatwierdzane do realizacji
z uwzględnieniem zarówno priorytetów
i dostarczanej wartości, jak i możliwości
implementacyjnych. W efekcie można uzyskać
mniej przełączania się pomiędzy różnymi
projektami i szybsze ich kończenie. Podobnie
w odniesieniu do działalności operacyjnej, Lean
w dużym stopniu przypomina znane, ale często
niestosowane koncepcje. Np. w ITIL wbudowane
są mechanizmy doskonalenia, nie tylko w wersji 3,
gdzie ciągłe doskonalenie usług stało się jedną
z pięciu głównych części, ale już wcześniej
w postaci rozróżnienia pomiędzy incydentami
wymagającymi jak najszybszego przywrócenia
usługi oraz problemami, których rozwiązanie
pozwala zapobiegać ponownemu pojawianiu
się podobnych incydentów. Jednak w praktyce
mierzone wskaźniki zazwyczaj koncentrują
się na pomiarach dotyczących incydentów,
a na zajęcie się problemami często brakuje czasu.
Lean anty-IT?
Koncepcje Lean miały źródła w produkcji.
Co ciekawe, konsekwencje wdrożeń Lean
skupionych na optymalizacji strumienia wartości,
optymalizacji i upraszczaniu procesów, często miały
konsekwencje niemal „anty-IT”, gdy okazywało
się, że do wsparcia procesu nie potrzeba złożonych
systemów informatycznych, a wystarczają
formularze na jednej kartce lub tablica. Gdy wiele
projektów wdrożeniowych się opóźnia, a znacząca
część implementowanej funkcjonalności nie jest
używana, warto wrócić do wykorzystania koncepcji
Lean właśnie na styku z biznesem, najpierw
upraszczając procesy, a następnie zapewniając
wsparcie informatyczne w niezbędnym zakresie.
Dobrze zwrócić uwagę również na zakres
przetwarzanych informacji. Wiele ze zbieranych
i przetwarzanych danych nie jest potrzebne.
Chociaż wiele informacji może się wydawać
przydatne, to jednak nie są niezbędne. Problemy
spotykamy zarówno w IT (np. obszerne formularze
zgłoszeń serwisowych z dziesiątkami pól – w dużej
części niewypełnianych przez użytkowników),
jak i w biznesie (np. zbieranie bardzo wielu
informacji o kliencie, które może wręcz zniechęcać
go do skorzystania z usługi, czy też liczne obszerne
47
raporty, które są utrzymywane, testowane,
ale nie zawsze wykorzystywane). Przesłanki
do ograniczania danych można znaleźć w wielu
źródłach, przykładem może być koncepcja
strategicznej karty wyników – ograniczenie
liczby wskaźników biznesowych do istotnych dla
danego modelu biznesowego przy jednoczesnym
pokryciu wszystkich aspektów. Niestety wybór tych
informacji, które są naprawdę istotne nie jest łatwy.
Lean IT w epoce Big Data
O ile same dane gromadzone w organizacji przy
znacznych nakładach pracy i kosztów są w dużej
części niewykorzystywane, to nowe możliwości
korzystania z tzw. wielkich danych pochodzących
z różnych źródeł zewnętrznych, z Internetu,
śledzenia portali społecznościowych, czy zbierania
dodatkowych informacji o aktywności klientów, są
ograniczone tylko przez wyobraźnię i pomysłowość
biznesu. Niestety koszty i złożoność przetwarzania
tych danych również nie mają granic. Lean IT
przypomina zasadę dostarczania wartości –
analizujmy tylko te dane, które są przydatne
i mogą pomóc w podejmowaniu lepszych decyzji,
a samo wykorzystanie danych niech będzie
włączone w strumień dostarczania wartości.
Można to osiągnąć poprzez systematyczny proces
wykorzystania Big Data zgodnie z zasadami Lean2.
Lean IT & User Experience
Jednym z przykładów zastosowania Lean
w praktyce jest obszar User Experience. W czasie
coraz szerszego wykorzystania rozwiązań IT,
w tym aplikacji mobilnych, do dostarczania
usług klientom staje się to szczególnie ważne.
User Experience to nie tylko funkcjonalność, która
jest potrzebna użytkownikowi, projekt interfejsu
2 Big data – Time for a lean approach in financial
services. A Deloitte Analytics paper
48
użytkownika, jego intuicyjność i łatwość obsługi,
czy estetyczna grafika. To przede wszystkim proces
bliskiej współpracy z użytkownikami od początku
tworzenia rozwiązania, nastawienie na zrozumienie
ich potrzeb, gotowość do szybkiego zbierania
informacji zwrotnej. Ponadto to zestaw narzędzi,
które niewielkim kosztem pozwalają walidować
pomysły rozwiązań, w tym np. papierowe
makiety. Pozwala to na ograniczenie kosztów
zaawansowanych prototypów, skrócenie czasu
dostarczenia rozwiązania, lepsze dostosowanie
do faktycznych potrzeb i uniknięcie znaczących
strat wynikających z dużych modyfikacji, które
nieraz okazywały się konieczne po zaprezentowaniu
użytkownikom gotowego oprogramowania
wytworzonego w tradycyjny sposób.
IT jako Lean Startup
Lean Startup3 wykorzystuje koncepcje Lean dla
nowych przedsięwzięć. Czy może mieć znaczenie dla
działu IT w dużej, dojrzałej organizacji z wieloletnią
historią? Jeśli musi ona tworzyć nowe, innowacyjne
produkty lub usługi w warunkach niepewności –
to jak najbardziej. Istotne jest, by poza praktykami
zgodnymi z Lean w obrębie IT (w tym np. w postaci
podejść agile w procesie wytwórczym) również
cały proces tworzenia nowego produktu czy usługi,
którego komponentem jest rozwiązanie IT, korzystał
z zasad Lean. Pozwala to na większą innowacyjność,
szybkie weryfikowanie pomysłów oraz elastyczność
w odpowiadaniu na nowe informacje i zmieniające
się wymagania.
Lean IT – jak zacząć?
Lean IT to droga ciągłego doskonalenia, a nie
jednorazowy projekt. Kompleksowa transformacja
IT zgodnie z Lean może zająć 2 – 3 lata. Jednak
3 Metoda Lean Startup. Wykorzystaj innowacyjne
narzędzia i stwórz firmę, która zdobędzie rynek, Eric Ries
każdą podróż należy zacząć od pierwszego kroku.
Zgodnie z Lean Change Method4 proponujemy
na początek małe projekty rozwiązujące konkretne,
zidentyfikowane problemy w obszarze IT
z wykorzystaniem zasad i wybranych narzędzi
Lean. W ich trakcie zespoły projektowe zdobywają
wiedzę i praktyczne doświadczenia. Zarazem
pierwsze, szybkie, nieraz spektakularne sukcesy
pokazują możliwość poprawy i pomagają uzyskać
wsparcie dla większej inicjatywy transformacji.
Po tej fazie taktycznych zmian konieczna jest
jednak faza strategiczna z silnym wsparciem
najwyższego kierownictwa oraz szerokim
zaangażowaniem pracowników.
Wdrożenie Lean w IT najlepiej realizować zgodnie
z zasadami Lean. Oznacza to w szczególności:
•Skupienie na zmianach, które przyniosą
wartość. Nie należy wdrażać Lean
dla samego wdrożenia.
• Bliską współpracę z biznesem i doskonalenie
całych procesów przekraczając granice
jednostek organizacyjnych.
•Elastyczność w trakcie procesu transformacji
i gotowość do reagowania na zmiany
w otoczeniu.
Ponadto nie należy dublować analogicznych
wysiłków. Warto zwrócić uwagę, że wiele elementów
Lean IT może być już wdrażane bez odwoływania
się do pojęcia „Lean”. Dotyczy to np. rożnych
programów doskonalenia efektywności i jakości w IT
czy wprowadzania podejścia agile w projektach.
Lean IT zapewni nie tylko opisane wcześniej
korzyści, ale też narzędzia i odpowiednie
nastawienie do świadomego podejmowania
nowych wyzwań. Co to będzie? Może tzw. „Internet
rzeczy”. Zanim podejmiemy decyzję o podłączeniu
poprzez Internet naszych produktów, zadajmy
najpierw pytanie, po co – jaką wartość dla naszych
klientów będzie miało takie rozwiązanie.
4 The Lean Change Method, Jeff Anderson
Wysłuchaj także podcastu, w którym autor
opowiada o kluczowych zasadach Lean IT
49
Pięć kroków skutecznej
restrukturyzacji IT
Asish Ramchandran, Joseph Joy, Varun Joshi, Shomic Saha, Deloitte Consulting LLP
Stosując odpowiednie podejście, dyrektorzy ds. informatyki mogą poprawić jakość i zakres
usług, jednocześnie inwestując w przyszłość działu IT.
Omówmy następujący scenariusz: Zarząd zamierza
ograniczać koszty w całej firmie, co oznacza,
że Dział IT, tak jak pozostałe działy, będzie musiał
dostosować model operacyjny oraz dokładnie
przyjrzeć się finansom, aby zrealizować krótko
i długoterminowe cele dotyczące wydatków.
Ale zanim jako Dyrektor ds. informatyki
zaczniesz redukować personel i zakres usług,
zadaj sobie dwa pytania: 1) W jaki sposób mogę
podejść do restrukturyzacji, aby odpowiednio
ograniczyć koszty jednocześnie nie rezygnując
z najważniejszych usług oraz 2) Jak mogę
wykorzystać proces restrukturyzacji, aby
zidentyfikować i wykorzystać możliwości
usprawnienia i rozwoju usług informatycznych
w przyszłości?
Krok pierwszy: Zrozumieć cele projektu.
Spółki decydują się na restrukturyzację przede
wszystkim, aby ograniczyć koszty i zwiększyć
efektywność. Jednak w zależności od okoliczności
powodujących konieczność restrukturyzacji,
czyli np. transakcji fuzji lub przejęcia, wdrożenia
nowej, złożonej technologii lub nowej strategii
biznesowej, zarząd może stawiać sobie szereg
konkretnych celów dotyczących działu IT.
Jeżeli na przykład Dyrektor Finansowy zamierza
ograniczyć wydatki działu IT o 20 mln USD
w ciągu najbliższych trzech lat lub musi
pokazać analitykom trzydziestomilionowy
wzrost przychodów w skali roku, możesz
stworzyć plan restrukturyzacji, który pozwoli
zrealizować takie założenia. Aby twoje
zaangażowanie w proces restrukturyzacji
50
przyniosło oczekiwane rezultaty, musisz najpierw
zrozumieć uzasadnienie biznesowe restrukturyzacji.
Jeżeli na przykład firma potrzebuje większej
elastyczności, trzeba wprowadzić zmiany
systemowe, które pozwolą zrealizować taki cel.
Jednak jeśli spółka koncentruje się na zwiększaniu
bezpieczeństwa, należy zastosować inne podejście.
Aby w pełni zrozumieć uzasadnienie biznesowe
restrukturyzacji i mieć wpływ na decyzje
dotyczące działania departamentu IT powinieneś
blisko współpracować z kierownictwem firmy
od najwcześniejszych etapów planowania zmian.
Krok drugi: Zrozumieć obecną sytuację
działu IT. Aby przygotować szczegółowy plan
restrukturyzacji, który doprowadzi do realizacji
zamierzeń, najpierw powinieneś dokładnie
przeanalizować budżet działu IT i poszczególne
wydatki, przyjrzeć się realizowanym projektom
i korzyściom, jakie przynoszą firmie oraz
pożytkom płynącym z poszczególnych zasobów
działu informatycznego. Dopiero wtedy możesz
zdecydować, w jaki sposób należy przeprowadzić
restrukturyzację działu IT bez uszczerbku
dla najważniejszych usług niezbędnych do
wprowadzenia zmian w całej firmie. Powinieneś
również zastanowić się, jak oceniasz swój dział
na tle podobnych działów w branży oraz w innych
sektorach gospodarki. Czy wykorzystujesz
technologie i procesy zazwyczaj stosowane
w Twoim sektorze? Czy firmy w innych branżach,
szczególnie zaawansowanych technologicznie,
wprowadzają innowacje, które mogłyby okazać
się użyteczne w działalności Twojej spółki?
Oceniając obecną działalność, określ technologie,
których utrzymanie nie znajdowało się wysoko
na liście Twoich priorytetów. Które technologie
mogą przestać spełniać swoją rolę w najbliższej
przyszłości? Jeżeli tak się stanie, ile będzie
kosztowała naprawa lub wymiana? Nie musisz
zajmować się wymianą technologii w ramach
restrukturyzacji, ale powinieneś przygotować
plan działania na wypadek, gdyby wydarzyło się
coś nieoczekiwanego.
Pozostawianie pracowników w niepewności
nieuchronnie doprowadzi do katastrofy.
Pamiętaj również, że wszystkie decyzje
kadrowe należy zsynchronizować ze zmianami
niezbędnymi do sprawnego działania działu
IT. Wybierz najważniejszych, niezbędnych
pracowników i w konkretny sposób zadbaj
o to, aby zostali w zespole. Nie zapomnij
również regularnie informować kierownictwo
w firmie o postępach. Ich sukces w osiąganiu
celów zależy do pewnego stopnia do Ciebie
i Twojego zespołu.
Krok trzeci: Określić oczekiwany zakres
usług na przyszłość. Rozumiejąc bieżące
wydatki działu, oferowane usługi i możliwości
oraz korzyści z projektu możesz ocenić cele
biznesowe na najbliższy rok lub półtora
realizowane w ramach planu restrukturyzacji.
Stwórz listę usług i możliwości niezbędnych
do realizacji strategii spółki. W większości
przypadków spółka nie szuka najnowszych,
wyrafinowanych technologii przyszłości.
Potrzebuje raczej sprawdzonych narzędzi
i systemów, które pozwolą osiągać określone
cele biznesowe. Taka lista usług przełoży się
na listę projektów realizowanych w ramach
restrukturyzacji i pomoże Ci podjąć decyzje
dotyczące ograniczania lub optymalizacji
wybranych obszarów IT. Posłuży również
jako podstawa do stworzenia szczegółowego
planu restrukturyzacji określającego
potrzeby i możliwości nowego środowiska IT
w przyszłości.
Przeszkody i przyszłe sukcesy
Krok czwarty: Wykonać szybko i sprawnie.
Restrukturyzacja w dziale IT może stać się
uciążliwa dla całej firmy. Często wiąże się
z restrukturyzacją zatrudniania, która, jeśli
zostanie przeprowadzona nieumiejętnie,
może niekorzystnie wpływać na atmosferę
w firmie. Jasna komunikacja i szybkie zmiany
kadrowe pomogą ograniczyć negatywne
skutki restrukturyzacji. Jeżeli jesteś zmuszony
zmniejszać zatrudnienie w dziale, zrób to
od razu po ogłoszeniu planu restrukturyzacji.
Każdy chciałby ograniczyć koszty pod
warunkiem, że nie zmniejszy to jego zdolności
do zarabiania pieniędzy. Z tego względu,
restrukturyzacja w dziale IT powoduje problemy,
z którymi poradzić może sobie jedynie Dyrektor
ds. informatyki. Ograniczenie kosztów IT może
na przykład wpłynąć na usługi, z których korzysta
cała firma. Rolą Dyrektora IT jest poinformować
pracowników, co się zmieni, kiedy to nastąpi
i w jaki sposób przemiany wpłyną na sposób
funkcjonowania firmy.
Krok piąty: Ocenić dodaną wartość i korzyści.
Łatwo jest wprowadzić szybkie korekty
budżetowe, aby zrealizować cele zamierzone
w procesie restrukturyzacji w krótkim okresie.
Jednak istotne i trwałe zmiany, których
celem jest długotrwałe ograniczenie kosztów,
wymagają zdecydowanie więcej wysiłków
i planów. Takie zmiany, zazwyczaj najbardziej
pożądane przez kierownictwo planujące
restrukturyzację, wiążą się zwykle z szerszą
strategią biznesową i przynoszą efekty
stopniowo, przez okres kilku lat. Tworząc
plany restrukturyzacji, określ proste kluczowe
czynniki efektywności, którymi będziesz mógł
łatwo zmierzyć istotne zmiany i ocenić korzyści
finansowe przemian w dziale IT.
51
Dyrektor IT powinien również znaleźć sposób na to,
by wykorzystać oszczędności uzyskane w procesie
restrukturyzacji i zainwestować je w przyszłość
informatyczną spółki. Restrukturyzacja może
oczywiście przynieść korzyści dla organizacji
w obszarze kosztów i przychodów, ale może
również wyzwolić nową energię pojawiającą się
podczas przygotowań do realizacji nowych celów.
W końcu restrukturyzacja działu informatycznego daje
szefom IT okazję, by porównać ich sposób działania
z metodami stosowanymi przez konkurentów.
Na koniec restrukturyzacyjnej podróży, Dyrektor
ds. informatyki powinien być w stanie zaoferować
określony zakres usług po konkurencyjnych
cenach oraz na poziomie skuteczności podobnym
do osiąganego przez liderów w branży.
Dodatkowe informacje: “When Should You Restructure IT?”
Powyższy tekst jest łumaczeniem artykułu, który ukazał się 8 października 2012 roku na stronie
http://deloitte.wsj.com/cio/
Asish Ramchandran, Szef Pionu, Deloitte Consulting LLP;
Joseph Joy, Dyrektor, Deloitte Consulting LLP;
Varun Joshi, Starszy Manager, Deloitte Consulting LLP;
Shomic Saha, Lider zespołu specjalistów, Deloitte Consulting LLP.
52
Optymalizacja na portalu
53
Model usług telco do przedefiniowania
Dzisiejszy model biznesowy funkcjonowania usług telekomunikacyjnych wymaga
przedefiniowania – uważa Piotr Muszyński, wiceprezes Orange Polska. Dostawcy treści
i usług powinni – jego zdaniem – ponosić część kosztów dostarczania im usługi przez
operatorów telekomunikacyjnych. W innym wypadku operatorom skończą się środki
na inwestycje i będą ich szukać u odbiorców końcowych, podwyższając im ceny usług.
Czytaj całość
Hamulec cyfrowej transformacji
Jak wynika z badania, w ciągu ostatnich trzech lat liczba decydentów IT uważających,
że ich biznes wykorzystuje więcej aplikacji niż tego potrzebuje, zwiększyła się z jednej
trzeciej (34%) do połowy (48%) badanych. Tylko 37% ankietowanych uważa,
że większość używanych aplikacji jest krytyczna dla ich biznesu. Prawie trzy czwarte
(73%) sądzi, że przynajmniej jedna piąta aplikacji w ich firmach dostarcza zbliżonej
funkcjonalności, która mogłaby zostać skonsolidowana, a kolejnych 57% przyznaje,
że przynajmniej jedna piąta aplikacji powinna być wycofana lub zastąpiona innymi.
Czytaj całość
54
Lean IT – produktywność i efektywność
w organizacji
Czas od stworzenia pomysłu do jego wejścia na rynek wciąż się skraca. Biznes oczekuje,
że zmiany w istniejących produktach i usługach będą wprowadzane od ręki. Liczy się
„time to market”. W tym dynamicznym świecie znakomicie sprawdzają się zwinne
metodyki projektowe (agile), które obiecują „dowieźć” sukces w budżecie i na czas.
Czytaj całość
Jak obniżyć koszty backupu
Backup backupowi nierówny. A co za tym idzie, i jego koszty. Wydatki poniesione
przez firmę na system centralnego backupu i jego utrzymanie to spory wydatek,
przez wielu przedsiębiorców postrzegany jako koszt, który nigdy się nie zwróci.
Ale czy na pewno tak jest?
Czytaj całość
55
Miliony stracone na licencjach
Zdecydowana większość polskich firm posiada oprogramowanie komputerowe,
z którego nie korzysta, a 32 proc. płaci za jego utrzymanie, choć nie ma uprawnień,
by go używać. Jednocześnie jak wynika z analizy przeprowadzonej przez firmę doradczą
Deloitte, aż dwie trzecie firm ma zaległości w opłacaniu licencji za używane programy,
co może grozić roszczeniami ze strony ich dostawców i poważnie zachwiać firmowymi
budżetami. Zdaniem ekspertów Deloitte tylko optymalne zarządzanie licencjami
i regularne audyty pozwalają uchronić przedsiębiorstwa przed zbędnymi wydatkami.
Czytaj całość
Szukając większej efektywności
Malejące budżety oraz nacisk na osiągnięcie określonego zwrotu z inwestycji dotyczą
w równym stopniu biznesu, jak i IT, które wspólnie odpowiadają za wynik finansowy
organizacji. Są dwie możliwe odpowiedzi na nowe wyzwania: poprawa efektywności
działania biznesu na rynku (ang. IT for the business) lub poprawa wydajności działania
organizacji IT (ang. the business of IT).
Czytaj całość
56
Innowacyjność a wyniki finansowe
Aż 96 proc. menedżerów z firm, będących liderami w zarządzaniu łańcuchem dostaw,
uważa innowacyjność za kwestię priorytetową dla rozwoju swoich organizacji.
Jak wskazuje raport przygotowany przez firmę doradczą Deloitte „Supply chain
leadership. Distinctive approaches to innovation, collaboration, and talent alignment”
innowacje to nie zawsze wynalazki i nowe produkty.
Czytaj całość
57
Download

Optymalizacja IT - it