Kiedy dwa lata temu pandemia zaatakowała społeczeństwo współczesnego świata, mało osób przypuszczało, że przyjdzie nam żyć z nią przez dłuższy czas. A jednak tak właśnie się stało. Życie wielu z nas zmieniło się bardzo wyraźnie. A co w tym czasie działo się w świecie metrologii długości? Okazuje się, że w wielu aspektach działania wcale nie zwolniły tempa. Częściowo było to związane z pomiarami dotyczącymi zagadnień medycznych, czyli metrologią w medycynie, a częściowo z normalnym rozwojem przyrządów pomiarowych, a także działaniami normalizacyjnymi i organizacyjnymi. A że zimowa pora skłania nie tylko do tęsknoty za latem, ale również do retrospekcji, postanowiłem podsumować to co się wydarzyło w niedalekiej przeszłości i odnieść się do pewnych tematów związanych z pomiarami długości.
O skanerach optycznych i możliwości ich wykorzystania napisano sporo. W literaturze - oprócz norm, o czym w dalszej części artykułu - można znaleźć prace związane z analizą cech dokładnościowych [1] i porównaniu z innymi technikami [2]. Wiele miejsca poświęcono ich aplikacjom w różnych dziedzinach, począwszy od inżynierii mechanicznej, zarówno w sferze obróbki skrawaniem [3] jak i obróbki plastycznej [4], poprzez analizę defektów na powierzchniach [5], aż po prace z zakresu inżynierii lądowej [6] i biomedycyny [7]. Niewątpliwie ta technika pomiarowa wspólnie z tomografią komputerową jest jednym z wyznaczników przemysłu przyszłości [8]. A jednak, zwłaszcza w zaawansowanych aplikacjach przemysłowych ciągle pojawiają się wątpliwości odnośnie ich możliwości w kategoriach dokładnościowych, szczególnie w aplikacjach zrobotyzowanych, których normy wprost nie obejmują. I tu pojawia się ciekawe badanie. Aby wyjść naprzeciw oczekiwaniom klientów wykonano szereg testów mających na celu prezentację powtarzalności systemów skanowania na obiektach rzeczywistych. Wybrany został obiekt rzeczywisty – odlew z obrabianymi powierzchniami, a system jaki został sprawdzony to MetraSCAN-R BLACK ELITE firmy Creaform, zamontowany w systemie CUBE-R (rys 1.).
Wybrano skaner laserowy, pracujący na częstotliwości odpowiadającej barwie niebieskiej, czyli produkt najnowszej generacji, który zastąpił rozwiązania z laserem wykorzystującym światło czerwone i z powodzeniem wyparł popularne kiedyś konstrukcje ze światłem strukturalnym. Wymiary obiektu to 1000 x 500 x 175mm. Pod uwagę wzięto kilkanaście charakterystyk – średnic, punktów powierzchniowych oraz odległości. Maksymalny błąd pomiarowy systemu z uwagi na zastosowaną budowę i użycie robota nie został podany zgodnie z normą ISO 10360-8 [9], ale jako maksymalny w całej przestrzeni pomiarowej wynoszącej 16,6m3 i odpowiadającej obiektowi mierzonemu o wymiarach Ø3000 x 1500 mm. Błąd ten katalogowo wynosi 0,078mm, a celem badania było sprawdzenie jakie błędy generuje skaner w warunkach rzeczywistych. Pierwszym testem był rozstęp wartości mierzonych, badany z 40 pomiarów na średnicy i odchyłki położenia punktu powierzchniowego w stosunku do modelu CAD. Jak widać z rysunków 2 i 3, wielkość rozstępu nie przekroczyła 20 µm.
Powyższe wyniki są zgodne z wynikami uzyskanymi z analizy systemu pomiarowego wykonanej na wzorcach typu ball bar, o wymiarach 900 i 1500 mm w różnych ustawieniach w przestrzeni pomiarowej systemu (rys. 4). Przykładowe wyniki dla wzorca o wykalibrowanej długości 902.089 mm przedstawiono na rysunku 5. Sprawdzano odległości pomiędzy kulami oraz błąd wymiaru na średnicy kuli w 6 ustawieniach. Dla każdego położenia wykonano 30 prób.
Jeszcze bardziej optymistyczne wyniki uzyskano dla pomiarów średnicy kuli, jako elementu znajdującego się na końcu wzorca typu ball bar (rys. 6) - tutaj odchyłka zmieściła się w kilku mikrometrach. Kula miała średnicę nominalną 38.110 mm.
Tak dobre wyniki skłoniły do przeprowadzenia kolejnego testu, już bez robota, ale za to dla zdecydowanie większych długości. Jako, że omawiany system może być wykorzystywany również jako ręczny skaner współrzędnościowy przeprowadzono analizę dla długości sięgających 10 metrów. Przygotowane zostało stanowisko pomiarowe, składające się z wzorca z 10 kulami o średnicy nominalnej 38 mm, rozmieszczonych na długości co 1 m. W badaniach, pozycje kul zmierzono pięcioma różnymi systemami MetraSCAN BLACK ELITE. Celem tego badania, było określenie powtarzalności oraz sprawdzenie jak najnowsze algorytmy radzą sobie w porównaniu do standardowej procedury z wykorzystaniem dodatkowego systemu fotogrametrycznego. Sprawdzenie zostało przeprowadzone nie tylko pojedynczego skanera, a pięciu różnych jego egzemplarzy. Każdy system zrealizował 25 pomiarów dla każdej kuli. Wyniki dla pomiarów z użyciem zewnętrznej fotogrametrii dla wybranych położeń przedstawiono w tabeli 1.
Odległości [mm] | 1000 | 2000 | 5000 | 8000 | 10000 |
Wartość po wzorcowaniu [mm] | 982,126 | 990,832 | 4958,215 | 7965,170 | 9955,424 |
Odchylenie wartości średniej [mm] | 0,017 | 0,016 | 0,037 | 0,054 | 0,083 |
Odchylenie standardowe [mm] | 0,014 | 0,020 | 0,037 | 0,046 | 0,045 |
Rozstęp [mm] | 0,022 | 0,028 | 0,064 | 0,081 | 0,083 |
Odchyłka maksymalna [mm] | 0,030 | -0,034 | -0,064 | -0,090 | -0,135 |
Tab.1. Testy powtarzalności skanera MetraSCAN BLACK ELITE z systemem fotogrametrycznym MaxSHOT 3D
W przypadku użycia dodatkowej fotogrametrii odchyłka maksymalna wyniosła 0,135 mm co przy MPE systemu na poziomie 0,194 mm (licząc dla 10 m) jest bardzo dobrym wynikiem. Warto również podkreślić, że maksymalne wartości odchyłek uzyskane bez użycia dodatkowej fotogrametrii opierając się jedynie na algorytmach były zbliżone do MPE, co w pełni uzasadnia stosowanie systemu do pomiarów dużych wymiarów. Przeprowadzona analiza pokazuje również, że warto po zakupie systemu poprosić o jego kalibrację przeprowadzoną przez akredytowane laboratorium [10], by lepiej poznać jego możliwości dokładnościowe.
Ta technika pomiarowa również od jakiegoś czasu cieszy się popularnością w publikacjach [11] i to nie tylko tych ukierunkowanych na medycynę [12] i biomedycynę [13]. Stosowana jest do pomiaru elementów metalowych [14], tworzyw sztucznych [15], pianek [16], a nawet komponentów budowlanych [17]. Stała się bardzo istotnym elementem badań struktur wykonanych w technikach przyrostowych [18], a nawet są próby wykorzystania jej w analizie nierówności powierzchni [19, 20]. Tu również prowadzone są badania związane z parametrami dokładnościowymi [21], a jednym z elementów wpływających na funkcjonowanie jest detektor. Narosło wokół niego wiele historii i mitów, a więc niektórym z nich postanowiliśmy się przyjrzeć nieco bliżej i bardziej metodycznie. Na przykład liczbie bitów, ponieważ porównując swego czasu obrazy uzyskane z dwóch różnych detektorów, 14 i 16-bitowego, stwierdziliśmy, że ten z 14-bitowego jest dużo bardziej czytelny i mniej "zaszumiony". Co zatem wpływa na pracę detektora, skoro nie (nie tylko) liczba bitów? Liczba bitów detektora odzwierciedla głębię skali szarości, a jednak nie jest ona jedynym parametrem istotnym z punktu widzenia detektora tomografów komputerowych. W idealnym przypadku rozdzielczość detektora pozwala zaobserwować wprost wynikające z niej zmiany sygnału, zachodzące w czasie pomiaru. Obrazuje to rysunek 7. Sygnał nominalny, będący tego przejawem zaznaczony kolorem czarnym pokazuje najmniejsze zmiany sygnału (napięcia) jakie jest w stanie zarejestrować elektronika – wartość idealna (zadana). Napięcie to powstaje przez konwersję energii fotonów promieniowania rentgenowskiego na napięcie. Najlepszy współczynnik konwersji w pełnym zakresie energii promieniowania rentgenowskiego mają detektory oparte na scyntylatorach wykonanych z jodku cezu. Z racji jednak, że elektronika jest elementem rzeczywistym a nie idealnym (modelowym), odczyt napięcia jest zniekształcony, co pokazuje wykres "czerwony" na rysunku 7.
Różnica pomiędzy sygnałem nominalnym a wynikającym z elektroniki jest zatem bardzo wyraźna. Istotne jest przy tym, aby zakres wartości sygnału był podzielony na odpowiednią liczbę bitów, a nie największą możliwą liczbę bitów. W przypadku detektorów 14 bitowych, dochodzi więc do naturalnego filtrowania szumów (traktowanych jako różnica pomiędzy sygnałem rzeczywistym a idealnym), spowodowanych ograniczeniami elektroniki. Przyjrzyjmy się jednak jak na tym tle wygląda sygnał zaobserwowany przez detektor, zaczynając od 14-bitowego. Zaprezentowano to na rysunku 8.
Wykres przedstawiony powyżej pokazuje filtrowanie sygnału poprzez wykorzystanie 14 bitowej głębi skali szarości. Wartość sygnału zaobserwowanego niewiele różni się od wartości nominalnej (zadanej), czyli takiej jaką chcielibyśmy uzyskać. A jak w tej sytuacji zachowuje się detektor 16-bitowy? Otóż z uwagi na dużo mniejszą różnicę poziomów napięcia wynikającą z kolejnych bitów sygnał zaobserwowany wygląda inaczej (rys. 9).
Gdyby zatem do odwzorowania sygnału wykorzystać 16 bitowy detektor, otrzymujemy dokładne odwzorowanie sygnału zniekształconego przez rzeczywiste elementy elektroniki (z szumem), przez co finalnie otrzymujemy zdjęcia rentgenowskie o zdecydowanie gorszej jakości. Paradoks? Wcale nie. Wartość szumu można sprawdzić mierząc chociażby współczynnik CNR (z języka angielskiego: Contrast to Noise Ratio), który w detektorach 14 bitowych przyjmuje znacznie większe wartości niż w detektorach 16 bitowych. Dzięki temu różnica jakości obrazów może być bardzo znacząca, co pokazuje rys. 10. Pomimo, że rozdzielczość obu zdjęć jest równa, tak samo jak moc – zdjęcie z 16 bitowego detektora jest obarczone dużym szumem. A jakość obrazu ma decydujący wpływ na wyznaczanie krawędzi i - co za tym idzie - wierność odwzorowania przedmiotu mierzonego oraz niepewność pomiaru.
Bardzo ważnym parametrem określającym działanie detektora i mającym wpływ na jakość obrazu jest również zakres dynamiki, osiągający znacznie większe wartości w detektorach 14 bitowych. Parametr ten to po prostu maksymalna różnica pomiędzy najciemniejszym a najjaśniejszym pikselem na pojedynczym zdjęciu RTG, jaką jest w stanie zarejestrować detektor (rys. 11).
Detektory 16 bitowe mają dużo mniejszy zakres dynamiki, co oznacza, że w jednym badaniu mogą wykorzystywać mniejszy zakres skali szarości, a zatem rzeczywiście wykorzystywana liczba bitów jest mniejsza. Finalnie może to skutkować m. in. dużo gorszym wyróżnianiem materiałów o różnych gęstościach. A zatem - nie wszystko złoto co się świeci i nie tylko liczba bitów decyduje o uzyskaniu obrazu dobrej jakości i pomiarze z małą niepewnością
Skanery wykorzystujące światło laserowe, o których pisałem na początku, coraz częściej znajdują zastosowanie również w aplikacjach o charakterze dynamicznym, w kontroli jakości realizowanej w trakcie procesu. Warunkiem takiego zastosowania jest odpowiednia prędkość działania. Kiedy bowiem jakikolwiek system wizyjny jest wolny, można go zastosować jedynie poza produkcją (np. w laboratorium pomiarowym), do kontroli pierwszej sztuki, aby odpowiednio "ustawić" produkcję i ponowić kontrolę pojedynczego przedmiotu po jakimś dłuższym czasie. Oczywiście producent nie ma w takiej sytuacji żadnych bieżących danych dotyczących zmian o charakterze losowym czy wynikających ze zużycia. Kiedy system staje się szybszy, istnieje możliwość realizacji kontroli wyrywkowej, co jakiś określony, ale zdecydowanie krótszy czas. System taki stwarza też opcję szczegółowej identyfikacji problemu w przypadku wystąpienia przedmiotu niezgodnego ze specyfikacją. A kiedy metody inspekcji osiągają prędkość weryfikacji odpowiadającą produkcji, można pomyśleć o systemie kontroli 100% funkcjonującej w pełnym trybie automatycznym. Powszechnie stosowanymi technologiami w tym zakresie są triangulacja laserowa i systemy wykorzystujące światło strukturalne (projekcja prążków), które schematycznie przedstawiono na rysunku 12. Ta pierwsza, z uwagi m.in. na lepszą odporność na warunki przemysłowe jest bardziej popularna.
Właściwości metrologiczne tego typu urządzeń pomiarowych opisane zostały w literaturze [23]. Dzięki takim technologiom możliwe jest uzyskanie obrazu przestrzennego (3D) o rozdzielczości wystarczającej do wielu zadań kontroli czynnej (w czasie produkcji). Typowy proces inspekcji w linii z punktu widzenia systemu pomiarowego obejmuje wyzwolenie skanowania (profil lub obszar), wygenerowanie skanu (obrazu), przypisanie wartości cechom pomiarowym i ich weryfikację w stosunku do założonych wartości tolerancji wraz z oceną dobry/zły. Jeśli dołożymy do tego podstawowe zalety takiego rozwiązania, czyli pomiar 3D, odporność na światło z otoczenia, dobrą powtarzalność i kontrast oraz łatwą zabudowę, to otrzymamy obraz rozwiązania coraz chętniej wykorzystywanego w praktyce przemysłowej i zgodnego z koncepcjami Przemysłu 4.0 i Metrologii 4.0 [24]. Wśród przykładowych aplikacji jest automatyczna analiza głowicy silnikowej (rys. 13).
Kontynuując temat wykorzystania pomiarów w czasie rzeczywistym do prowadzenia procesów, można przytoczyć przykład zastosowania linijki laserowej jako optyczne prowadzenie dla frezowania rowka. Aplikację taką dla deski rozdzielczej samochodu przedstawiono na rysunku 15.
Można się spodziewać, że w nadchodzących latach, przy nastawieniu wytwórców na strategię Przemysł 4.0 lub ogólniej przemysł przyszłości, tego typu aplikacji będzie coraz więcej
W ostatnim czasie bardzo dużo działo się w obszarze normalizacyjnym, zarówno w skali makro jak i mikro. Nie sposób opisać tu wszystkich norm, które ukazały się lub ukazać się mają, ale z pewnością warto wymienić te, które wprowadzają zasadnicze zmiany. Skala makro, to przed wszystkim prace związane z uaktualnianiem normy ISO 10360. Tytuł całej normy to Specyfikacje geometrii wyrobów (GPS). Badania odbiorcze i okresowe współrzędnościowych systemów pomiarowych (CMS). Norma ma już całkowicie gotowych lub w przygotowaniu 13 części, dotyczących współrzędnościowych systemów pomiarowych, począwszy od stykowych współrzędnościowych maszyn pomiarowych, maszyny optyczne, skanery optyczne, ramiona pomiarowe aż po tomografy komputerowe. Część 13 [28], będąca nowością, dotyczy optycznych współrzędnościowych systemów pomiarowych 3D, ze szczególnym uwzględnieniem coraz powszechniejszych w przemyśle optycznych współrzędnościowych skanerów pomiarowych (rys. 16), jako urządzeń do pomiaru długości.
Dotychczas skanery "podchodziły" pod przywołaną już wcześniej część 8 normy, czyli były traktowane jako współrzędnościowa maszyna pomiarowa z czujnikami optycznymi odległości (albo mocno już archaiczne zalecenia VDI/VDE 2634 [30]), ale grupa robocza WG 10 komitetu technicznego ISO TC 213 zdecydowała wydzielić skanery i przeznaczyć dla nich oddzielną część normy. Podobnie jak inne części opisujące urządzenia pracujące w technice współrzędnościowej tak i tutaj przedstawiono błędy opisujące funkcjonowanie skanerów, a także wzorce i metodykę realizacji działań weryfikacyjnych i reweryfikacyjnych, czyli sprawdzenia ponownego po określonym czasie użytkowania. Sprawdzenie początkowe, zaraz po instalacji pozwala na akceptację sprzętu i wartości deklarowanych przez producenta, natomiast ta sama czynność po roku lub więcej daje świadomość zmian, jakie następują w skanerze w wyniku użytkowania. Należy naturalnie mieć świadomość, że nawet pogorszenie się wartości nie dyskwalifikuje samego urządzenia, a jedynie zmienia jego charakterystyki na mniej korzystne z dokładnościowego punktu widzenia. Wśród norm, nad którymi prace trwają znajduje się w dalszym ciągu część 11 ISO 10360 [31], dotycząca tomografów komputerowych. Przykładowy system pomiarowy wykorzystujący promieniowanie X funkcjonujący jako tomograf techniczny przedstawiono na rysunku 17.
Kilka lat wstecz, kiedy mieliśmy przyjemność organizować posiedzenie ISO TC 213 na Politechnice Poznańskiej [33] wydawało się, że gotowa wersja tego dokumentu jest kwestią niedalekiej przyszłości. A jednak okazało się, że tomografia komputerowa jest tak nową i jednocześnie odmienną techniką pomiarową od pozostałych, że ciągle pojawiają się zagadnienia do rozwiązania, opóźniające ukazanie się tej części normy. Wynika to między innymi z faktu, że prześwietlanie przedmiotów daje nowe możliwości w dziedzinie weryfikacji i reweryfikacji parametrów dokładnościowych tomografów, ale z drugiej strony powoduje zjawiska fizyczne zakłócające wiarygodne wyniki pomiaru (artefakty). Niemniej, biorąc pod uwagę rosnącą popularność tomografów komputerowych i niejednoznaczności przy ich wyborze i stosowaniu (chociażby opisany powyżej problem z głębią skali szarości detektora), ta część normy z pewnością uporządkuje wiele wątpliwości. A skoro jesteśmy przy porządkach, to zmianie ulegnie wkrótce także ISO 10360 - 1 [34], dotycząca pojęć i definicja, pisana z górą 20 lat temu i przez to trochę odstająca od rzeczywistości pomiarów długości i kąta. Przechodząc do skali mikro i analizy nierówności powierzchni, również tutaj zachodzą bardzo istotne zmiany. Po kilku latach przygotowań ukazały się trzy części normy ISO 21920 [35, 36, 37] dotyczące analizy struktury geometrycznej powierzchni na podstawie profilu. Poszczególne części związane są kolejno z oznaczaniem tekstury powierzchni (to co obejmuje, a w zasadzie już obejmowała norma ISO 1302 [38]), terminami, definicjami i parametrami oraz operatorami specyficznymi, gdzie można znaleźć wiele informacji na temat określania wartości domyślnych dla parametrów z części 2. Norma oczywiście - jak każda - będzie się przyjmować powoli, na pewno trochę czasu upłynie zanim konstruktorzy zaczną ją stosować. Niemniej zmiany, jakie za sobą niesie są bardzo znaczące, stąd zachęcam do jej lektury. Prace kończą się lub trwają również nad modyfikacją szeregu części normy ISO 25178, w tym najbardziej popularnej części 2 [39] zawierającej parametry i funkcje opisujące topografię powierzchni (3D) oraz części 700 [40] związanej z kalibracją, justowaniem i weryfikacją przyrządów do pomiaru nierówności powierzchni w ujęciu przestrzennym.
Napisałem już o przyrządach, parametrach dokładnościowych i normach. Ale warto w tym miejscu napisać jeszcze parę słów o bezprecedensowym wydarzeniu, które z pewnością było bardzo istotne dla polskiej metrologii. Mówię tu o powstaniu Polskiej Unii Metrologicznej, której Krajowe Forum Integracji miało miejsce 18 października 2021. W klechdach z lat dzieciństwa w takiej sytuacji jako autor powinienem napisać: I ja tam byłem, miód i wino piłem..., podkreślając bardzo konstruktywną i sympatyczną atmosferę tego wydarzenia. Głównym celem Unii jest integracja polskich instytucji zajmujących się metrologią, współpraca z przemysłem i otoczeniem społeczno – biznesowym. Do Polskiej Unii Metrologicznej na spotkaniu przystąpiły jednostki naukowe - Politechniki: Krakowska, Lubelska, Łódzka, Opolska, Poznańska, Śląska, Świętokrzyska i Warszawska, a także Instytut Metalurgii i Żelaza Sieci Badawczej Łukasiewicz, oraz sprawujący nad nią iście ojcowską pieczę Główny Urząd Miar (rys. 18).
Pokłosiem powstania Unii jest ogłoszony przez Ministra Edukacji i Nauki program Polska Metrologia [41], w ramach którego przewidziane jest wspieranie realizacji projektów służących podniesieniu poziomu zdolności badawczych instytucji metrologicznych, wzmocnieniu kapitału intelektualnego, zwiększeniu konkurencyjności polskiej gospodarki w strategicznych dla kraju obszarach, rozwojowi nowoczesnych technologii, stymulowaniu rozwoju metrologii, w szczególności w obszarach zdrowia, środowiska, energii oraz zaawansowanych technik pomiarowych, a także rozwoju technologii cyfrowych. Podsumowując, nie sposób oprzeć się przekonaniu, że przyszłość polskiej metrologii rysuje się w bardzo pozytywnych barwach.
Podziękowania
Autorzy dziękują za współpracę firmom Creaform, Waygate Technologies, ITA oraz LMI, a także panom: Mateuszowi Matuszakowi, Radosławowi Kubackiemu, Maciejowi Szelewskiemu
Artykuł w pierwotnej wersji ukazał się w kwietniowym wydaniu czasopisma "STAL Metale & Nowe Technologie" 3-4/2022
Literatura
tests for coordinate measuring systems (CMS), Part 13: Optical 3D CMS.
Indication of surface texture.
Terms, definitions and surface texture parameters.
Specification operators.
Treść powyższego artykułu korzysta z ochrony udzielanej przez przepisy ustawy z dnia 4 lutego 1994 r. o prawie autorskim i prawach pokrewnych (j.t. Dz. U. z 2006 r. Nr 90, poz. 631 ze zm.). Każdy z Klientów zobowiązany jest do poszanowania praw autorskich pod rygorem odpowiedzialności cywilnoprawnej oraz karnej wynikającej z przepisów tej ustawy. Treść artykułu – w całości bądź jakiejkolwiek części – może być wykorzystywana tylko w zakresie dozwolonego użytku osobistego. Wykorzystanie tego artykułu - w całości bądź jakiejkolwiek części - do innych celów a w szczególności - komercyjnych, w tym kopiowanie, publiczne odtwarzanie, lub udostępnianie osobom trzecim w jakikolwiek inny sposób, może następować tylko pod warunkiem uzyskania wyraźnego pisemnego zezwolenia ITA i na warunkach określonych przez ITA. W celu uzyskania zgody na wykorzystanie zawartości Strony, należy skontaktować się z ITA za pośrednictwem formularza kontaktowego dostępnego w zakładce Kontakt. Korzystanie z powyższej treści w celu innym niż do użytku osobistego, a więc do kopiowania, powielania, wykorzystywania w innych publikacjach w całości lub w części bez pisemnej zgody ITA jest zabronione i podlega odpowiedzialności cywilnoprawnej oraz karnej wynikającej z przepisów ustawy o prawie autorskim i prawach pokrewnych.