„Czwarta Rewolucja Przemysłowa” to chyba najczęściej pojawiające się hasło w dyskusjach nt. produkcji przemysłowej, zarówno w samej branży, jak i poza nią. Nawet obecnie występujące globalne problemy z dostawami go nie przykrywają. Przemysł 4.0 to koncepcja, która opowiada o tym, jak użyć osiągnięć IT do zbudowania samoorganizującego się procesu wytwarzania wartości. Mowa o całym procesie, a nie o maszynie, linii produkcyjnej czy fabryce dlatego, że „wartość”, czyli produkt finalny, jest wytwarzany w dłuższym łańcuchu. Bierzemy pod uwagę nie tylko fabrykę wytwarzającą fizyczny wyrób, ale także dostawców komponentów, a jeszcze wcześniej – surowców do komponentów. Patrzymy także na to, co się dzieje, gdy produkt jest już gotowy: jak jest dostarczony do konsumenta. Wszystkie te elementy tworzą łańcuch i każdy z nich jest miejscem potencjalnej zmiany jakości, możliwej redukcji kosztów czy innej optymalizacji. Co więcej – łańcuchy te stały się globalne, poszczególne elementy łańcucha są rozproszone po całym świecie lokując się optymalnie do kosztów produkcji oraz dostępu do surowców. 

Na wpływ systemów IT na te procesy można spojrzeć z punktu widzenia danych, gdzie muszą być one zebrane z urządzeń, potem zaprezentowane ludziom, w taki sposób, aby mogli podejmować decyzje na swoim poziomie operacyjnym (inaczej operatorom maszyn – proste interfejsy, inaczej technologom – rozbudowane raporty, a inaczej kierownictwu – Business Intelligence). Poprawiając jakość danych i systemów, jednocześnie  przekazujemy decyzyjność z rąk ludzi na rzecz systemów. 

Można też spojrzeć na połączenia sieciowe pomiędzy elementami łańcucha. W tym obszarze też jest kilka warstw – maszyny łączą się czasem tylko z systemami nadrzędnymi, jednak docelowo wszystko będzie łączyć ze wszystkim, wręcz najmniejszy czujnik w jednej maszynie z napędem w innej. 

Warto też spojrzeć na to z punktu widzenia planowania produkcji – od systemów inteligentnie planujących produkcję mając dane nt. dostępności maszyn, aż po linie zrobotyzowane, które potrafią się same konfigurować w zależności od tego, jaki produkt wytwarzają. Dzięki temu, mitygujemy obecność człowieka, im mniej będzie on obecny na linii, tym lepiej. Paradoksalnie osiągamy wtedy stałość produktywności i jakości, a to daje elastyczność na poziomie planowania. Oczywiście ludzie są potrzebni, ale być może bardziej przy wytwarzaniu czegoś, co musi mieć komponent „serca” – jak np. dobra luksusowe.

Dane: Czy informatyk zrozumie automatyka i dlaczego nie?

Jest potrzeba połączenia świata IT i świata przemysłu. Nie jest to jednak takie łatwe, gdyż dopiero niedawno, wraz z powstaniem pojęcia Przemysłu 4.0, te światy zaczęły się schodzić. Wcześniej rozwijały się trochę oddzielnie, bo mają różne potrzeby. Wymienić wszystkie różnice nie jest łatwo, ale do najważniejszych można zaliczyć fakt, że w przemyśle liczy się bezpieczeństwo ludzi i jakość. W tej właśnie kolejności. Maszyny to urządzenia mające ruchome i niebezpieczne części. Spłaszczając zagadnienie można powiedzieć że potrzebny jest szereg rozwiązań technicznych, aby pozwolić na sterowanie maszyną z Chmury. Trzeba się upewnić, że fizycznie nikt nie może zostać zraniony, gdy maszyna ruszy, że ma załadowane surowce i że kolejne maszyny w linii są w stanie produkt odebrać.

To, co łączy te dwa światy to cyberbezpieczeństwo. W maszynach zwykle nie ma danych osobowych, ale skutki zainfekowania maszyny oprogramowaniem typu ransomware mogą być kosztowne nie ze względu na utratę drogich danych, ale dlatego, że zostanie zatrzymana produkcja lub stracimy kontrolę nad maszyną.

“W nowoczesnym przemyśle jest silny trend do automatyzacji zbierania danych – jak najwięcej mają podawać czujniki , napędy czy sterowniki, jak najmniej operator.”

Szereg różnic występuje także w zakresie rozumienia procesu powstawania danych. Sterowniki maszyn zwykle działają w cyklach, które są  krótkie. Mówimy o realtime, gdzie cykle trwają od kilku do kilkuset milisekund. Co każdy cykl powstają dziesiątki danych nt. stanu maszyny i procesu. Kolejny cykl nie będzie czekać na to, aż dane z obecnego zostaną odebrane a system IT wyda zezwolenie na dalszą pracę – to by spowolniło produkcję i zepsuło proces. Jest to typowy determinizm. Z drugiej strony, duża część danych nie jest nam potrzebna. Mamy np. dane generowane co 50ms nt. temperatury w kotle, ale tak szybko temperatura się nie zmienia. Podobnych danych w maszynie może powstawać kilkaset w ciągu jednego cyklu – to nie problem w trakcie zmiany wygenerować gigabajty. Istnieje więc potrzeba, aby dane przetwarzać jak najbliżej maszyny, by nie ponosić kosztów ich przechowywania i transmisji oraz żeby nie obciążać dodatkowo procesora maszyny. Rozwiązaniem w tym zakresie jest przetwarzanie brzegowe – Edge Computing. Relację pomiędzy danymi w przemyśle i systemami IT opisuje bardzo ciekawie standard ISA95. 

Uszczelnienie systemu i zamykanie pętli: automatyzacja zbierania danych

Aby systemy IT coraz lepiej zarządzały produkcją, dane muszą być prawidłowe i pełne. W nowoczesnym przemyśle jest silny trend do automatyzacji zbierania danych – jak najwięcej mają podawać czujniki , napędy czy sterowniki, jak najmniej operator. Chodzi o to, aby przesuwać granicę pomiędzy tym co się da wykryć automatycznie, a tym co musi wciąż raportować człowiek. Prawda, niestety, jest taka, że ludzie przekłamują, systemy nie. 

Spójność danych – czyli raport z dziurą doprowadzi do złej decyzji biznesowej

Kolejnym wyzwaniem jest spójność danych. Świat przemysłu to hałas, ruch, specyficzne zapachy i substancje, ale też zakłócenia elektromagnetyczne. Kable danych biegną gdzieś obok kabli zasilających silniki o wielkich mocach, technologie bezprzewodowe dla przemysłu raczkują, a infrastruktura jest narażona na fizyczne uszkodzenia. Dlatego istotne są rozwiązania buforujące. Utracenie komunikacji z bazą danych czy brak JSONa nie powinno zatrzymać produkcji, ale żeby prawidłowo zarządzać zakładem dane muszą być uzupełnione po stronie IT, gdy tylko komunikacja powróci. Każdy raport produkcyjny jest błędny, jeśli ma dziurę w źródłowych danych. Od tych raportów zależy rozwój przedsiębiorstwa oraz wynagrodzenie ludzi. Spójność i Pojedyncze Źródło Wiedzy to ważne zagadnienia w tym kontekście.  

Utrzymanie ruchu – predykcja i preskrypcja

Nowoczesna fabryka dba o swoje urządzenia i infrastrukturę, bo to one wytwarzają wartość. Sprzęt zawsze się będzie psuł, bo się po prostu zużywa. Ważne, żeby mieć informacje o tym, jak blisko awarii jest maszyna. Najkosztowniejsze i najbardziej czasochłonne są naprawy po fakcie. Dzięki danym, możemy badać stan urządzeń i budować o nich wiedzę. Wykorzystując nią, obniża się koszty napraw, utrzymania i magazynu części zamiennych. Konserwacja predykcyjna to strategia, w której systemy IT wskazują, kiedy nastąpi awaria. Kolejny poziom to konserwacja preskrypcyjna, gdzie systemy dodatkowo doradzają, co zrobić, żeby się nie zepsuło lub żeby zepsuło się później. 

Śledzenie produkcji i wielkie zbiory danych

Dzięki danym z produkcji i ich korelowaniu ze sobą, nowoczesne fabryki są w stanie osiągnąć jeszcze jeden cel: pełne śledzenie. Przemysł 4.0 zaistniał też dlatego, że pojawiły się moce obliczeniowe i przestrzenie pozwalające trzymać i przetwarzać wielkie ilości danych. Na pewno wielu Czytelników spotkało się z akcją serwisową w motoryzacji. Koncerny wzywają na wymiany potencjalnie wadliwych części nawet kilkunastoletnie auta. To wszystko dzięki temu, że numer VIN auta jest w systemach spięty z konkretnymi numerami seryjnymi części, a te z numerami swoich komponentów, a te jeszcze z danymi dostawcy surowców. To wszystko jest dodatkowo połączone z danymi na temat procesu obróbki i z danymi dotyczącymi stanu samej maszyny. Kiedy komuś w aucie zepsuła się część, producent sprawdził, skąd się ona wzięła. Zgłosił to poddostawcy, a ten sprawdził, że tego dnia wystąpił jakiś problem z maszyną w procesie i być może cała produkcja z tego dnia jest wadliwa. Identyfikuje konkretne numery, przekazuje je producentowi, ten wyszukuje klientów i zaprasza na sprawdzenie lub wymianę. Kosztowne, ale na pewno mniej niż rekompensaty za utratę zdrowia kierowcy.

“Przemysł 4.0 zaistniał też dlatego, że pojawiły się moce obliczeniowe i przestrzenie pozwalające trzymać i przetwarzać wielkie ilości danych.”

Robotyzacja – być elastycznym, cobotyzacja – być elastycznym bliżej człowieka

Robot przemysłowy to manipulator, który swoimi ruchami odzwierciedla ruchy ludzkiej ręki. Używanie robotów jest opisywane normami a wokół robota trzeba używać szeregu zabezpieczeń – nie może być za blisko ludzi, aby nie uszkodzić ich ciała. Roboty kolaborujące – coboty – to przełom. Cobot jest naszpikowany czujnikami i wykonany tak, że może współpracować z człowiekiem. Nie muszą być stosowane wygrodzenia, gdyż strumień danych z napędów i czujników, przetwarzany w czasie rzeczywistym przez CPU robota, z odpowiednią redundancją, zabezpiecza operatora przed kolizją. Dzięki cobotom realne stają się scenariusze, że robot i człowiek pracują „ramię w ramię”, przekazują sobie detale, jeden drugiemu coś może potrzymać.

AI – automatyzacja podejmowania decyzji

Ciekawą drogą do świata produkcji wkraczają systemy Sztucznej Inteligencji. Obecnie AI w przemyśle służy głównie do wspomagania decyzji. Mechanizacja pozwoliła zastąpić człowieka w pracach trudnych, żmudnych czy zbyt szybkich. To poprawiło wydajność i jakość, ale oczywiście są obszary, gdzie praca rąk ludzkich jest niezastąpiona. Analogicznie, systemy AI zastępują człowieka przy podejmowaniu decyzji. Zrobią to szybciej, powtarzalnie i obiektywnie. Oczywiście, decyzje strategiczne nadal pozostają w gestii ludzi, ciężko jest zaprogramować intuicję i „serce”. 

Sieci – szybko i pewnie – TSN i 5G 

Aby pomiędzy systemami mogły płynąć dane potrzebne są sieci. W przemyśle każdy aspekt ma wymiar fizyczny. W przypadku sieci nie chodzi tylko o warstwę fizyczną modelu OSI, ale to, że ilość kabli czy mnogość protokołów przynosi dużo problemów. Dlatego jest silny trend, aby pogodzić w jednym standardzie zarówno deterministyczność potrzebną w komunikacji wewnątrz maszyn z wydajnością i przepustowością potrzebną do komunikacji z systemami nadrzędnymi. Duży potencjał w tym zakresie mają sieci TSN – Time Sensitive Netowork. Protokoły te potrafią rozróżnić i zarządzać transmisją wielu typów danych. Jest to tak silny trend, że przewiduje się, iż TSN będzie w przyszłości największym i głównym standardem. 

W nowoczesnych fabrykach potrzebne są także szybkie połączenia bezprzewodowe o dużej przepustowości. Pozwala na to teoretycznie technologia 5G. Rzeczywisty poziom wdrożeń w fabrykach jest jednak dość niski – ogranicza się do eksperymentalnych wydziałów głównie fabryk międzynarodowych graczy. Konsorcjum 3GPP ma dopiero nadchodzącej wiosny opublikować 17. wydanie standardu, który poprawia możliwości użycia sieci 5G w przemyśle. Poprzednie wydania, które dają jakiekolwiek możliwości, też są dość świeże. Dlatego mało jest jeszcze gotowych rozwiązań na rynku. Na szczęście jednak obserwuje się duże zainteresowanie firm telekomunikacyjnych, jak i startupów budowaniem rozwiązań dla przemysłu.

Podsumowanie

Przemysł 4.0 uważany jest przez wielu za pusty slogan, bo w odróżnieniu od poprzednich rewolucji nie jest oparty na jednym odkryciu i jeszcze nic rewolucyjnie się nie zmieniło. Jednak ta rewolucja to proces, a rewolucyjnych technologii jest cały szereg. Oprócz tego, pojawiło się także dużo nowych modeli biznesowych i metod zarządzania produkcją, powstało także zagadnienie zwinności.

Każdy zakład powinien podążać swoją drogą i patrzeć na zmiany jedynie poprzez pryzmat osiągania przewagi konkurencyjnej. Ta rewolucja będzie trwać długo i będzie inna w każdym przypadku. Jedno nie ulega wątpliwości: zmiana polega na zastosowaniu najnowszych osiągnięć IT i informatyki jako nauki o informacji w przemyśle, która ma wymiar fizyczny, a priorytetem nr 1 jest bezpieczeństwo.