Metrologia długości i kąta od wielu lat przeżywa intensywny rozwój. Wynika to z wielu istotnych przyczyn, wśród których warto wymienić nowe zastosowania zasad fizycznych, automatyzację i rozwój technik komputerowych, strategię przemysłu 4.0 i nowe metody wytwarzania – zwłaszcza przyrostowe. Wszystkie te czynniki z jednej strony przyczyniły się do powstawania nowych przyrządów pomiarowych, a z drugiej – do zmiany podejścia do algorytmów pomiarowych i praktyki. Pomiędzy tymi czynnikami często zachodzi synergia, co sprawia, że np. zasady fizyki, na podstawie których konstruuje się przyrządy, w połączeniu z lepszą rozdzielczością detektorów i lepszymi parametrami jednostek obliczeniowych pozwalają na tworzenie przyrządów o nowych możliwościach. Automatyzacja i robotyzacja wymuszają konstruowanie systemów pomiarowych z elementami odpornymi na kolizje [1]. Jednocześnie – zgodnie z duchem przemysłu 4.0 i metrologii 4.0 – coraz większe znaczenie zyskuje wykorzystanie rzeczywistości rozszerzonej lub wirtualnej oraz sztucznej inteligencji, zwłaszcza w procesach decyzyjnych.
Przemysł 4.0 może być rozumiany jako wielowymiarowa koncepcja wykorzystująca pakiet technologii umożliwiających tworzenie autonomicznych i inteligentnych systemów produkcyjnych zdolnych do samokonfiguracji i samokontroli, a nawet samodzielnego naprawiania się [2]. To pozwala na podniesienie efektywności i elastyczności wytwarzania.
Ideę przemysłu 4.0 zapoczątkowano w Niemczech – jako Industrie 4.0 – w 2011 r. Miała ona pokazać, jak będzie wyglądała rewolucjonizacja organizacji globalnych łańcuchów wartości. Stwarzając warunki do funkcjonowania inteligentnych fabryk, czwarta rewolucja przemysłowa kreuje świat, w którym wirtualne i fizyczne systemy produkcji współpracują ze sobą globalnie w sposób elastyczny. Umożliwia to dostosowanie produktów do życzeń klientów i tworzenie nowych modeli operacyjnych [3].
Głównym celem strategii przemysłu 4.0 jest stworzenie tzw. smart factory, czyli inteligentnej fabryki o bardzo wysokim stopniu automatyzacji i robotyzacji, która realizuje procesy w sposób optymalny (lub mocno do niego zbliżony) oraz w której można szybko i elastycznie zmieniać produkowane wyroby w sposób zorientowany na klienta. W życiu codziennym ma się to przełożyć na inteligentne produkty, budynki, systemy transportu, miasta, a także systemy socjalne.
W ramach przemysłu 4.0 powstają innowacyjne rozwiązania umożliwiające integrowanie istniejących systemów wyposażonych w układy automatyczne, a także automatyzację i robotyzację procesów (wytwórczych, logistycznych itp.) realizowanych dotychczas za pomocą układów manualnych. To z kolei wymusza rozwój sensoryki w kierunku opracowania nowych modułów i układów niezbędnych do pozyskiwania informacji o stanie procesów i ich poszczególnych elementów. W dalszym ciągu przetwarzania informacje te służą do wielokryterialnej optymalizacji procesów i bardziej efektywnego wykorzystania zasobów podmiotu realizującego zadania produkcyjne. Dzięki takim rozwiązaniom maszyny i urządzenia technologiczne utrzymywane są w sprawności i gotowości do szybkiej zmiany konfiguracji (rekonfiguracji). Z technologicznego punktu widzenia jako podstawowe elementy przemysłu 4.0 można wymienić technologię internetu rzeczy, polegającą na zapewnieniu dostępu do sieci poszczególnym urządzeniom, systemom i ich składowym operacyjnym skonfigurowanym jako podsystem (jednoznacznie identyfikowalnym) oraz wykorzystaniu sztucznej inteligencji, umożliwiającej m.in. szybkie podejmowanie decyzji na podstawie uzyskanych danych i przesłanek z bazy wiedzy stworzonej i rozwijanej na podstawie codziennych zadań (sieci neuronowe, logika rozmyta itp.).
Istotną rolę w strategii przemysłu 4.0 odgrywa pomiar – na podstawie jego wyników podejmowane są decyzje związane z funkcjonowaniem systemów i ich elementów. To z kolei przekłada się na koncepcję metrologii 4.0 [4].
Takie współistnienie metrologii z przemysłem, czy szerzej: z wytwarzaniem, zachodzi od zarania dziejów. Już w starożytności pomiary długości i kąta odgrywały istotną rolę. Podczas budowy piramid egipskich przestrzegano ścisłych wymagań wymiarowych. Licząca prawie 4600 lat piramida Cheopsa, zawierająca ok. 2 300 000 kamiennych bloków o średniej masie ponad 2000 kg, została postawiona na terenie sztucznie wyrównanym w taki sposób, że różnica wysokości przeciwległych narożników wynosi 13 mm, a boki kwadratowej podstawy ustawione są względem stron świata z niepewnością 4 minut kątowych. W jednym ze starożytnych grobowców znaleziono rysunek, który można uznać za pierwsze udokumentowanie zastosowania metrologii w produkcji (rys. 1).
Rysunek ten przedstawia klasyczny przykład kontroli w trakcie produkcji, ponieważ obróbka bloku skalnego jest realizowana symultanicznie z jego pomiarami.Wynika z tego, że pomysł na kontrolę czynną powstał już dawno temu. Kontrola odbywała się za pomocą wzorców długości, które porównywano ze wzorcem wyższego rzędu. Wzorce wykorzystywane przez pracowników były drewniane, a wzorzec wyższego rzędu był z czarnego granitu. Starannie go przechowywano i wykorzystywano do porównań ze wzorcami użytkowymi. Zatem już w starożytności istniała hierarchia wzorców, której przestrzeganie było ważnym elementem prac wykonawczych.
W okresie rewolucji przemysłowych metrologia była związana ze zmianami zachodzącymi w przemyśle. Kiedy pod koniec XVIII w. stworzono pierwsze krosno mechaniczne, a później maszyny parowe – uważane dziś za wyznaczniki pierwszej rewolucji przemysłowej – pojawiła się również pierwsza suwmiarka z noniuszem. W tym czasie Francuskie Zgromadzenie Narodowe wydało uchwałę definiującą metr jako dziesięciomilionową część ćwiartki południka ziemskiego. Stała się ona podstawą do porównywania wzorców w czasach nowożytnych. Konsekwencją tego był również końcowy archiwalny wzorzec metra.
Niecałe 100 lat później druga rewolucja przemysłowa zapoczątkowała masową produkcję, linie montażowe i upowszechnienie energii elektrycznej. Metrologia w wersji 2.0 odpowiedziała na to stworzeniem dokładniejszego wzorca metra, opartego na kresach, i płytkami wzorcowymi oraz całą filozofią ich stosowania, autorstwa Carla Edvarda Johanssona (są one wykorzystywane w przemyśle nieprzerwanie od 1911 r.). Nieco później opracowano pierwsze przyrządy do pomiaru chropowatości powierzchni [5].
Kolejna, trzecia rewolucja przemysłowa – której wyznacznikiem w 1969 r. stał się pierwszy sterownik PLC, a wraz z nim: automatyzacja, komputery i gwałtowny rozwój elektroniki – mogła już skorzystać z redefinicji metra z roku 1960. Po raz pierwszy wzorzec materialny został zastąpiony wzorcem falowym, bazującym na długości fali światła emitowanego przez krypton86 (w 1983 r. XVII Generalna Konferencja Miar przyjęła obecną definicję metra jako długość drogi przebytej w próżni przez światło w czasie 1/299 792 458 s). Koniec lat 50. XX w. to także pierwsza współrzędnościowa maszyna pomiarowa (rys. 2), której kolejne wersje w różnych układach konstrukcyjnych zaczęły się pojawiać w następnych latach.
Metrologia 3.0 to dalsza automatyzacja pomiarów, minimalizacja błędów urządzeń pomiarowych i nowe pomysły, co w latach 70. Znalazło wyraz w konstrukcji głowicy przełączającej do CMM, pomiarach skaningowymi i początkach analizy topografii powierzchni.
Metrologia gra ważną rolę także od początku istnienia koncepcji przemysłu 4.0. Co więcej, można śmiało powiedzieć, że wymusiła niektóre jej elementy. Kiedy zatem rok 2011 przyniósł początki obecnej, czwartej rewolucji przemysłowej, techniki pomiarowe korzystały już z rozwoju skanowania (w tym za pomocą fal elektromagnetycznych) i związanych z nim dużych zbiorów danych oraz wkraczającej coraz powszechniej digitalizacji i pracy na kolorowych mapach odchyłek. Zaczęto powszechnie analizować powierzchnie swobodne, zastępując opis matematyczny chmurą punktów. Kolejne tendencje w metrologii 4.0 to zastosowanie multisensoryki i analizy w wielu skalach (multiscale), a także metrologia w technikach addytywnych, zaawansowane techniki filtracji, roboty współpracujące, metrologia bogata w informacje i jak najbliżej produkcji (w procesie produkcyjnym).
Metrologia 4.0 wpłynie na wiele elementów, a ich rozwój będzie podyktowany jej wymaganiami. Po pierwsze konieczność weryfikacji stanu różnych urządzeń spowoduje skonstruowanie nowych sensorów. Ich działanie będzie związane z analizą stanu elementów, podzespołów maszyn i urządzeń technologicznych, aby precyzyjnie i – co ważne – a priori określać konieczność przeprowadzenia prac konserwacyjnych czy remontowych. Dzięki temu zostaną wyeliminowane kosztowne przerwy w działaniu systemów wytwórczych oraz – spotykana w niektórych zakładach przemysłowych – tendencja do mnożenia pewnych maszyn i utrzymywania wysokiego stanu części zapasowych.
Rozwijająca się technika druku 3D pozwoli na wytwarzanie na bieżąco części zamiennych. Systemy będą realizować funkcje naprawcze, dzięki czemu – w futurystycznej wizji – system zdiagnozuje wadliwy element, zleci jego wytworzenie i dokona wymiany. Sztuczna inteligencja (AI) w urządzeniach pomiarowych po określeniu funkcjonalnych przesłanek zadania pomiarowego bądź przedmiotu dobierze najlepsze warunki do danej aplikacji (np. gęstość próbkowania, indeks zagnieżdżenia i filtr). Pozwoli też na określenie strategii pomiaru (skaningu czy próbkowania punktowego, kolejności zbierania danych albo pomiaru elementów, kątów i pozycji, z jakich skaner będzie zbierać dane itp.). Wreszcie dobierze końcówkę pomiarową lub obiektyw, optymalne z punktu widzenia kryteriów kosztowych i koniecznych wartości parametrów dokładnościowych. Elementem tego jest dalsza automatyzacja i robotyzacja, które w urządzeniach pomiarowych już i tak są zaawansowane (praca CNC współrzędnościowych maszyn pomiarowych, profilometrów, urządzeń do pomiaru błędów kształtu itp.). Robotyzacja obejmie nie tylko funkcjonujące układy skanowania (także optycznego), lecz także systemy logistyczne, związane z dostarczaniem przedmiotu do przestrzeni pomiarowej i jego przekazywaniem na kolejne stanowiska. Dodatkową opcją będą systemy kamer śledzące przebieg pomiaru. W połączeniu z elastycznym oprogramowaniem pozwolą one na ingerencję nawet fizycznie oddalonego użytkownika w proces pomiarowy, wybór cech i przerwanie procesu pomiarowego w sytuacji krytycznej niezgodności.
Bardzo istotnym elementem metrologii 4.0 jest komunikacja elementów pomiarowych z wytwórczymi, co stanowi jeden z kluczowych elementów strategii przemysłu 4.0. Podobnie jak w przypadku urządzeń technologicznych, także każde urządzenie pomiarowe będzie wyposażone w system sensorów na bieżąco monitorujących jego stan i wysyłających informacje o każdej zaobserwowanej nieprawidłowości. Sensory te będą wymuszać okresową kalibrację, która w wielu wypadkach będzie realizowana automatycznie (częściowo ma to miejsce już dziś, w zrobotyzowanych celach pomiarowych wyposażonych w systemy skanowania optycznego). Oprócz tego system pomiarowy będzie wysyłać informacje do maszyny technologicznej odnośnie do zadań już wykonanych i planowanych, a także związanych z zaobserwowanymi nieprawidłowościami. Dzięki temu centrum obróbkowe będzie w stanie automatycznie przeprowadzić działania korygujące, docelowo zapewniające uzyskanie produktu o najwyższej jakości. Takie urządzenia pomiarowe będą pracować w linii wytwórczej, co jest coraz powszechniejszą praktyką, naturalnie pod warunkiem zapewnienia odpowiednich warunków związanych z temperaturą otoczenia i gradientami (na godzinę, na dzień i na metr). Od tego już tylko krok do budowania maszyn technologiczno-pomiarowych, łączących możliwości wytwórcze i kontrolne. Ta koncepcja wymaga stworzenia wewnątrz maszyny podwójnej ramy: jednej do obróbki, a drugiej do realizacji zadań pomiarowych. Konieczne jest także zapewnienie warunków klimatycznych i izolacji drgań, niemniej w najbliższej przyszłości mogą się już pojawiać pomysły na tego typu konstrukcje.
Metrologia 4.0 to również filozoficzna zmiana procesu oceny przedmiotu – już nie na podstawie samych wymiarów, ale chmury punktów i jej zgodności z danymi CAD. Sztuczna inteligencja będzie wspomagać proces pomiarowy, m.in. dobierać bazy i dopasowywać dane pomiarowe do nominalnych. Częściowo procedura ta jest już realizowana w systemach pomiarowych.
Nowe podejście charakteryzuje także metrologię bogatą w informacje (information rich metrology). Pomysł na jej wprowadzenie wywodzi się z analizy nierówności powierzchni [7], ale jej zastosowanie wykracza daleko poza te ramy. Pomysł ten polega na wykorzystaniu przy określaniu wyników pomiaru nie tylko wartości menzurandu, ale także wiedzy związanej z jego uwarunkowaniami. Mowa tu o korekcji wyniku ze względu na warunki termiczne, dane kalibracyjne oraz dane związane z przyrządem i przedmiotem mierzonym. Już obecnie korekcja temperaturowa jest powszechna we współrzędnościowych maszynach pomiarowych, zwłaszcza tych o mniejszych maksymalnych błędach dopuszczalnych.
Wspomniane techniki przyrostowe przygotowały bazę dla nowego podejścia metrologicznego [8]. Okazało się bowiem, że to, co wystarczało w odniesieniu do przedmiotów wykonywanych technikami konwencjonalnymi, przestało być wystarczające. Specyfika procesów addytywnych wymaga innego podejścia.
W skali mikro najprostszym przykładem jest rozdzielenie sygnału z profilometru na falistość i chropowatość. W powierzchniach formowanych w wyniku obróbki skrawaniem ma to istotne znaczenie, ponieważ falistość wynika z problemów obrabiarki (np. niedostatecznej sztywności), a chropowatość z problemów narzędzia (kształtu i parametrów ostrza skrawającego). Wyszczególnienie i rozdzielenie tych dwóch składowych oraz – w konsekwencji – analiza każdej z nich osobno mają głębokie uzasadnienie. Do tego celu wykorzystuje się przede wszystkim odcinek elementarny, który z uwagi na matematyczne uzasadnienie dla niektórych nowych technik filtracji zmienił się ostatnio w indeks zagnieżdżenia. W technikach przyrostowych można co prawda teoretycznie podzielić nierówności – np. dla najpopularniejszych technik FDM – na chropowatość (czyli nierówności na nakładanej nici) i falistość (nierówności wynikające z kolejnych nici), ale praktycznie nie znajduje to uzasadnienia. Podobnie wygląda sytuacja w przypadku innych technik wytwarzania przyrostowego [9]. Przykładowy obraz powierzchni uzyskanej technikami addytywnymi pokazano na rys. 3.
W takim zatem ujęciu nierówności powierzchni albo powinny być oceniane sumarycznie, albo – co jest znacznie częstszą praktyką – filtrowane funkcjonalnie. Techniki filtracji nierówności powierzchni gwałtownie się rozwijają. Obecnie oferują użytkownikom przyrządów pomiarowych wiele opcji usuwania cech nieistotnych, zakłócających obraz powierzchni lub uwypuklania ważnych elementów. Wśród tych technik obok znanych już filtrów Gaussa są m.in. filtry odporne, falkowe, sklejane i morfologiczne, realizowane w różny sposób i za pomocą różnych kombinacji [10]. Opisy szczegółowe tych filtrów zawarto w poszczególnych częściach normy ISO 16610. Przykładowy obraz powierzchni z rys. 3 po filtracji funkcjonalnej pokazano na rys. 4. Wyraźna nieciągłość w okolicach 6. mm w kierunku osi odciętych została sprowadzona do niezbyt głębokiej rysy. Z powodu specyfiki filtracji i cech powierzchniowych do pomiarów w technikach przyrostowych chętnie stosuje się przyrządy ze skali mezo, które oferują możliwości pomiarów nierówności powierzchni (mikro) i klasycznych cech geometrycznych (makro) [11]. Dwie techniki, które w sposób szczególny się wyróżniają, to mikroskopia różnicowania ogniskowego [12] i skaningowa interferometria koherencyjna. Pomiary nierówności łączą się w ten sposób z pomiarami niektórych cech geometrycznych. Z uwagi na bardzo skomplikowane kształty wewnętrzne możliwe do uzyskania technikami przyrostowymi do pomiarów wykorzystuje się tomografię komputerową, opisaną w następnej części niniejszego artykułu.
Współrzędnościowe maszyny pomiarowe w skali makro od wielu lat cieszą się popularnością i stały się nieodzowne w różnych gałęziach przemysłu. Jednocześnie współrzędnościowa technika pomiarowa znacznie się udoskonaliła. Różnorodność, skomplikowane kształty oraz zadania pomiarowe doprowadziły do rozwoju optycznych narzędzi pomiarowych, które pozwalają na realizację zadań trudnych do wykonania metodą stykową.
Skanujące głowice optyczne, stosowane na współrzędnościowych maszynach pomiarowych, umożliwiają szybki pomiar bezstykowy i pozyskanie większej ilości informacji niż stykowe głowice pomiarowe. Z czasem głowice te rozwinęły się w samodzielne urządzenia – skanery 3D. Ich ogromną zaletą jest szybkość pozyskiwania ogromnej ilości informacji o mierzonym wyrobie oraz czytelność prezentacji wyników [13, 14]. Opierają się na zasadzie pomiaru światła odbitego bądź rozproszonego od powierzchni mierzonego obiektu.
Wyróżnia się skanery światła strukturalnego i skanery laserowe. Skanery światła strukturalnego wykorzystują projekcję światła o określonej strukturze, tzn. ich projektory rzutują na mierzoną powierzchnię wzory np. kodów Greya, prążków przesuniętych w fazie czy innych form kodu (kształtów swobodnych, kół itp.). Są to z reguły systemy umieszczane na statywach, ale zdarzają się odrębne, stacjonarne maszyny pomiarowe, do których wkłada się mierzony przedmiot i realizuje pomiar w trybie automatycznym (film 2).
Takie skanery realizują założenia metrologii 4.0 – mają uchwyt dla przedmiotu obracający się wokół osi, by umożliwić kompleksowy pomiar cech geometrycznych ze wszystkich stron, a po wzbogaceniu w automatyczną kalibrację mogą współpracować z zewnętrznym robotem, który podaje kolejne przedmioty do pomiaru. Tego typu systemy charakteryzują się stałą składową maksymalnego błędu dopuszczalnego na poziomie kilku mikrometrów, co pozwala im konkurować ze współrzędnościowymi maszynami pomiarowymi.
W wielu aplikacjach skanery światła strukturalnego coraz częściej są zastępowane nowszymi rozwiązaniami – skanerami laserowymi. Są one mniejsze i umożliwiają pomiar z ręki, dlatego wypierają skanery mocowane na statywach, oferując znacznie lepszą mobilność oraz praktycznie zerową wrażliwość na światło zewnętrzne. Początkowo rozwiązania oparte na akcji laserowej były znane jako laserowe głowice skanujące lub laserowe głowice triangulacyjne umieszczane na maszynach współrzędnościowych lub ramionach pomiarowych. Obecnie funkcjonują jako samodzielne skanery laserowe pracujące w trybie ręcznym lub automatycznym i stały się jedną z najbardziej powszechnych i efektywnych metod akwizycji danych (film. 3).
Zasada działania laserowych głowic skanujących opiera się na emitowaniu przez układ optyczny na powierzchni skanowanego obiektu punktu, linii lub zestawu linii laserowych (w najnowszych rozwiązaniach – do 11 krzyży) obserwowanych przez kamerę CCD. W 2019 r. stosowane dotąd światło czerwone zaczęto zastępować światłem niebieskim, o znacznie krótszej fali. Efekty tego to lepsza rozdzielczość i poprawa parametrów dokładnościowych. Coraz nowsze rozwiązania optyczne i elektroniczne umożliwiają zbieranie danych z częstotliwością 60 Hz (60 klatek/s i akwizycję niemal 500 000 pkt/s). Taka szybkość pozwala na uniknięcie problemów związanych z wibracjami i skanowanie z tzw. wolnej ręki oraz podgląd uzyskiwanych danych przestrzennych w czasie rzeczywistym. Jest to spore ułatwienie podczas skanowania obiektu o skomplikowanym kształcie i duża zaleta w porównaniu ze skanerami świtała strukturalnego.
Skanowanie przestrzenne – będące efektem rozwoju optycznych technik skanowania – należy do kluczowych procesów pomiarowych w metrologii 4.0. Składowymi tych technik są: digitalizacja oparta na dużych zbiorach danych, generowanie kolorowych map odchyłek i praca na powierzchniach swobodnych, których opis jest zastępowany chmurą punktów. Skaner może współpracować z kobotem, czyli robotem współpracującym, dzięki czemu urzeczywistnia ideę metrologii jak najbliżej produkcji (bezpośrednio w linii produkcyjnej – in-line lub równolegle z nią – at-line). Bardziej zaawansowane wykorzystanie systemu skanującego odbywa się w celach pomiarowych, gdzie instaluje się roboty produkcyjne, o dużych prędkościach ustawczych i roboczych. Na filmie pokazano skaner na robocie i celę pomiarową. Takie rozwiązanie jest przykładem automatyzacji skanowania w koncepcji metrologii 4.0. Zadanie jest realizowane w niezależnej celi pomiarowej z systemem załadowczym. Głowica skanera współpracuje z trackerem śledzącym jej położenie w sposób ciągły, co pozwala na pracę bez dodatkowych znaczników, których nakładanie jest uciążliwe i czasochłonne.
Układ laserowych promieni świetlnych pozwala mierzyć jednocześnie powierzchnie o różnych kolorach, pochłaniające i odbijające promieniowanie, bez konieczności matowienia. Tracker gwarantuje uzyskanie lepszych parametrów dokładnościowych dzięki automatycznej fotogrametrii. W ten sposób system zapewnia tzw. referencję dynamiczną, dzięki czemu może mierzyć – także z wykorzystaniem ruchu kątowego – na zintegrowanym stole obrotowym. Zadaniem operatora jest zaprogramowanie pomiaru i uruchomienie platformy, dalsze czynności wykonywane są automatycznie, bez jego obecności.
Cela ma zabezpieczenia uniemożliwiające wejście do środka w czasie pomiaru. System wyposażono w możliwość automatycznej kalibracji za pomocą specjalnego wzorca i modułu oprogramowania. Dodatkowym elementem wpisującym się w koncepcję metrologii 4.0, realizowanym w laboratorium ITA, jest system kamer umożliwiający śledzenie procesu pomiarowego [18]. Obserwator, znajdujący się często bardzo daleko od systemu pomiarowego, otrzymuje wiadomość z linkiem dostępu. Kamery zamontowane są na ściankach celi pomiarowej lub na głowicy robota przemieszczającego się z głowicą pomiarową. Obserwator na bieżąco weryfikuje strategię pomiarową, nie ruszając się ze swojego miejsca pracy. Dalszy poziom interakcji polega na możliwości ingerencji obserwatora w proces pomiarowy. Sprowadza się to m.in. do akcji podejmowanych przez obserwatora na różnych poziomach dostępu, zależnie od wiedzy metrologicznej i znajomości oprogramowania pomiarowego. Może zatem nie tylko nawiązać bezpośredni kontakt z operatorem (za pomocą komunikatora internetowego) i wspólnie podejmować decyzje odnośnie do badanego przedmiotu, lecz także samodzielnie przerwać cykl pomiarowy, np. jeśli liczba cech wychodzących poza tolerancję będzie zbyt duża. Może również samodzielnie uruchomić program pomiarowy dla wybranych cech, jeśli okaże się, że to właśnie one powodują najwięcej kłopotów przy kwalifikowaniu wyrobu jako zgodnego ze specyfikacją, oraz zmodyfikować wybrany fragment procedury pomiarowej. Realizację tego zadania zapewnia zestaw przesyłania obrazu składający się z kamer i oprogramowania z opcją przełączania widoków pomiędzy nimi, pozwalający na interakcję z osobą nadzorującą pomiar z oddalonej lokacji.
Promieniowanie elektromagnetyczne można w metrologii wykorzystać nie tylko w zakresie widzialnym. Tomografia komputerowa, która bazuje na promieniowaniu X, stopniowo toruje sobie drogę i coraz częściej jest stosowana nie tylko do analizy wad, ale także cech geometrycznych. Dokładny opis tej techniki można znaleźć w pracy [19].
Tomografy stosowane w medycynie mają parametry ściśle dostosowane do stawianych im zadań. Ze względu na bezpieczeństwo organizmu żywego maksymalnie redukuje się dawkę promieniowania i skraca czas pomiaru. Najlepsze tomografy do zastosowań medycznych mają rozdzielczość na poziomie 0,1 mm, jednak większość urządzeń oferuje rozdzielczość do 0,5 mm [20]. Są to wartości odpowiednie do obrazowania organizmu ludzkiego, jednak w większości przypadków niewystarczające do badań laboratoryjnych czy przemysłowych. Dlatego tomografy techniczne nazywa się często mikrotomografami – pozwalają one bowiem na obrazowanie z rozdzielczością nawet poniżej mikrometra. Nie są przeznaczone do badania organizmów żywych, więc dłuższy jest w nich czas ekspozycji na promieniowanie X (robi się więcej zdjęć, wydłuża czas ich rejestracji) i wyższa moc lampy rentgenowskiej. Sporo praktycznych informacji na temat tomografii w metrologii pojawiło się w ostatnich latach w Mechaniku w artykułach prof. E. Ratajczyka [21–24]. Tutaj warto omówić tylko kilka aspektów szczególnych.
Tomografia komputerowa w zastosowaniach niemedycznych jest na tyle nową techniką, że w wielu przypadkach trudno mówić o rozwiązaniach standardowych. Można jednak przyjąć za klasyczny układ, w którym mierzony obiekt znajduje się na stole obrotowym, a lampa i detektor są nieruchome lub wykonują ruch liniowy. Spotyka się również rozwiązania o układzie ruchu tożsamym z tomografami medycznymi. Są one przeznaczone bezpośrednio do pracy w linii produkcyjnej lub do oceny wybranych wyrobów równolegle z linią produkcyjną. Ich przykładem może być tomograf do kontroli odlewów aluminiowych (m.in. w przemyśle motoryzacyjnym), którego koncepcję przedstawiono na rys. 5.
Podstawowe zastosowanie tego tomografu to kontrola grubości ścianek wewnątrz odlewów. W dobie redukcji pojemności i podnoszenia mocy ten parametr ma krytyczne znaczenie dla wytrzymałości i żywotności silników. Ze względu na prędkość pomiaru na poziomie kilkudziesięciu milimetrów na sekundę i czas inspekcji jednej sztuki wynoszący ok. 1 min takie urządzenie nadaje się do wykorzystania bezpośrednio na (lub przy) linii produkcyjnej. Istotnym elementem w charakterystyce tomografów technicznych jest jakość obrazu. Z uwagi na specyfikę promieniowania rentgenowskiego i zjawiska zachodzące przy jego przechodzeniu przez mierzone przedmioty obraz jest zniekształcany przez różne artefakty. Dobre oprogramowanie przygotowujące plik wyjściowy do analizy powinno je usuwać. Do najbardziej zaawansowanych należy funkcja scatter correct opracowana przez specjalistów z GE (rys. 7 [26]). W ten sposób można uzyskać bardzo dobry zbiór danych wyjściowych, co ma krytyczne znaczenie dla dokładności analizy cech geometrycznych i wad.
Gdy stosuje się tomografy, zwłaszcza bez precyzyjnej kontroli parametrów temperaturowych, pojawia się pytanie o zmiany termiczne, które w metrologii długości i kąta są czynnikiem decydującym o dokładności pomiaru. Lampa rentgenowska jest bowiem istotnym źródłem ciepła, a im większa moc, tym większe jego generowanie. W badaniach przeprowadzonych w Zakładzie Metrologii i Systemów Pomiarowych Politechniki Poznańskiej stwierdzono, że temperatura na powierzchni lampy rentgenowskiej może nawet przekraczać 40°. Wyniki przykładowej analizy dla lampy kierunkowej pokazano na rys. 8. Czy zatem – z uwagi na temperaturę – niepewność pomiaru cech geometrycznych za pomocą tomografu jest tak duża, że dyskryminuje jego użycie, a układ chłodzący nie jest wystarczający? Rzeczywistość jest bardziej optymistyczna. W przypadku małych mocy po przekroczeniu zadanej temperatury układ chłodzący jest załączany, a następnie – gdy medium chłodzące osiągnie określoną temperaturę – zostaje wyłączony. Objawia się to przebiegiem charakterystyki przypominającym fale. W pozostałych przypadkach temperatura anody rośnie dynamicznie i jest utrzymywana na wyższym poziomie, co wymusza ciągłą pracę układu chłodzenia.
W omawianym przypadku przeprowadzono również badania rozkładu temperatury w funkcji odległości od czoła lampy rentgenowskiej. Wyniki pokazują, że temperatura na powierzchni czołowej lampy – w miejscu z którego emitowane jest promieniowanie rentgenowskie – rośnie bardzo wyraźnie wraz ze wzrostem mocy, jednak w pewnej odległości od lampy wpływ ten nie jest już tak silny. Dla 240 kV i 1305 µA, czyli 300 W, po godzinie pracy temperatura na czole lampy wzrasta o 24,5°C, ale już w odległości 15 mm od czoła wzrost ten wynosi jedynie 4,6°C, w odległości 30 mm jest to 3,1°C, w odległości 45 mm – 2,3°C, 60 mm – 2,0°C, 150 mm – 1,3°C, przy jednoczesnym wzroście temperatury w komorze tomografu o 0,7°C. Jest to istotna informacja, gdyż stosowanie dużych mocy lampy rentgenowskiej powoduje zwiększenie plamki w ognisku, co wymusza redukcję powiększenia geometrycznego poprzez odsunięcie mierzonego obiektu od źródła promieniowania, aby uniknąć rozmycia obrazu. Zatem w takim przypadku wpływ zmian temperatury, będących efektem emitowania promieniowania rentgenowskiego w obszarze, gdzie znajduje się element, będzie niewielki.
Na zakończenie warto wspomnieć o bardziej formalnej stronie metrologii długości i kąta. Od 1996 r. trwają prace Komitetu Technicznego ISO/TC 213 odpowiedzialnego za specyfikacje wymiarowe i geometryczne oraz weryfikację wyrobów. Komitet opracował już 146 norm. Wśród najważniejszych prac normalizacyjnych prowadzonych obecnie należy wymienić kolejne części norm: ISO 10360 (część 11 dotycząca tomografów komputerowych oraz część 13 dotycząca skanerów optycznych, dotychczas ujętych w części 8), ISO 25178 (dotyczącej przestrzennej struktury geometrycznej powierzchni), ISO 16610 (dotyczącej metod filtracji), ISO 21920 (dotyczącej analizy nierówności powierzchni na podstawie profilu i obejmującej m.in.: nowe oznaczenia rysunkowe odnośnie do tekstury powierzchni, parametry nierówności obliczane z profilu i warunki pomiaru), a także norm związanych z tolerancjami i bazami (ISO 5459, ISO 2692, ISO 8062, ISO 22081 itp.). Prace te pokazują, jak ważna jest ta część działań ujednolicających wymagania i specyfikacje dla nauki i przemysłu. Warto zaznaczyć, że jedno z ostatnich spotkań komitetu we wrześniu 2018 r. zostało organizowane w Poznaniu przez Zakład Metrologii i Systemów Pomiarowych Politechniki Poznańskiej [28].
Istotnym elementem metrologii długości i kąta jest tworzenie i rozwój akredytowanych laboratoriów wzorcujących zgodnie z normą ISO 17025 [27]. Korzystanie z usług takich laboratoriów gwarantuje, że wyniki wzorcowań są wiarygodne i bezstronne. Certyfikat Polskiego Centrum Akredytacji, uznawany w większości liczących się technicznie krajów świata, potwierdza bowiem, że akredytowany podmiot:
Przedstawiona w artykule droga, którą podąża metrologia 4.0, wskazuje tendencje, jakie się w niej pojawiają w ostatnich latach. Czy będzie to droga wyboista czy raczej prosta autostrada – pokażą najbliższe lata. Najbliższe, ponieważ liczba lat, jakie upływają pomiędzy kolejnymi rewolucjami przemysłowymi, jest coraz mniejsza. Można zatem przewidywać, że piąta rewolucja przemysłowa pojawi się już za około 20 lat. Wtedy też okaże się, jak bardzo realne i uzasadnione ekonomicznie i funkcjonalnie były założenia czwartej rewolucji, która urzeczywistnia się na naszych oczach.
LITERATURA
1. Wieczorowski M. „Digitalizacja powierzchni w aplikacjach mikro, mezo i makro”. Mechanik. 11 (2018): 944–949, https://doi.org/10.17814/mechanik.2018.11.166.
6. Hocken R.J., Pereira P.H. (eds.). „Coordinate Measuring Machines and Systems”. Boca Raton: CRC Press, 2012.
Treść powyższego artykułu korzysta z ochrony udzielanej przez przepisy ustawy z dnia 4 lutego 1994 r. o prawie autorskim i prawach pokrewnych (j.t. Dz. U. z 2006 r. Nr 90, poz. 631 ze zm.). Każdy z Klientów zobowiązany jest do poszanowania praw autorskich pod rygorem odpowiedzialności cywilnoprawnej oraz karnej wynikającej z przepisów tej ustawy. Treść artykułu – w całości bądź jakiejkolwiek części – może być wykorzystywana tylko w zakresie dozwolonego użytku osobistego. Wykorzystanie tego artykułu - w całości bądź jakiejkolwiek części - do innych celów a w szczególności - komercyjnych, w tym kopiowanie, publiczne odtwarzanie, lub udostępnianie osobom trzecim w jakikolwiek inny sposób, może następować tylko pod warunkiem uzyskania wyraźnego pisemnego zezwolenia ITA i na warunkach określonych przez ITA. W celu uzyskania zgody na wykorzystanie zawartości Strony, należy skontaktować się z ITA za pośrednictwem formularza kontaktowego dostępnego w zakładce Kontakt. Korzystanie z powyższej treści w celu innym niż do użytku osobistego, a więc do kopiowania, powielania, wykorzystywania w innych publikacjach w całości lub w części bez pisemnej zgody ITA jest zabronione i podlega odpowiedzialności cywilnoprawnej oraz karnej wynikającej z przepisów ustawy o prawie autorskim i prawach pokrewnych.