ELEKTRONIKA I FOTONIKA W POLSCE Piotr Grabiec Instytut Technologii Elektronowej e-mail: [email protected]

Antoni Rogalski Instytut Fizyki Technicznej Wojskowa Akademia Techniczna e-mail: [email protected]

Wprowadzenie Podczas gdy pierwsza połowa XX wieku zdominowana była przez dwie kolejne wojny światowe, rewolucje, zmiany granic i tworzenie nowego ładu politycznego, druga jego połowa stanowiła okres niesłychanie intensywnego rozwoju elektroniki. Z perspektywy pierwszych lat wieku XXI bez wątpienia możemy stwierdzić, że druga połowa ubiegłego stulecia zasłużyła na nazwę wieku mikroelektroniki.

Produkcja

samego

tylko

światowego

przemysłu

półprzewodnikowego, startując od zera w połowie wieku XX, osiągnęła w roku 2004 poziom 250 mld euro, natomiast globalna wartość rynku systemów elektronicznych

i

usług

opartych

i

przekraczała niewyobrażalną kwotę 6×10

12

wykorzystujących

mikroelektronikę

euro. W ostatnich trzydziestu latach z

elektroniki zaczęła wyodrębniać się nowa dziedzina nauki i techniki zwana fotoniką. Fundamentalna różnica pomiędzy elektroniką a fotoniką wynika z faktu, że w przyrządach elektronicznych nośnikiem informacji jest elektron, zaś w przyrządach fotonicznych – foton. Elektron jest cząstką elementarną o ładunku ujemnym, zaś foton jest też cząstką, ale rozumianą jako ”paczka” energii elektromagnetycznej spełniającą różne funkcje w systemach informatycznych. Początek rozwoju obu dziedzin wiążę się odkryciem tranzystora w dniu 16 grudnia 1947 przez naukowców firmy AT&T Bell Labs (Williama Shockley’a, Johna Bardeena i Waltera Brattaina) i odkryciem półprzewodnikowych diod świecących i laserów. Obecnie nowe generacje przyrządów powszechnie stosowanych w

286

Piotr Grabiec, Antoni Rogalski

różnych systemach elektronicznych i fotonicznych określają postęp cywilizacyjny. Najbardziej jest on widoczny na terminalach lotnisk, począwszy od systemów wizualizacji

informacji

a

skończywszy

na

systemach

zapewniających

bezpieczeństwo pasażerów. Świat oplatany jest globalną siecią internetową a systemy

elektroniczne

i

fotoniczne



bardzo

ważnych

składnikiem

funkcjonowania globalnej ekonomii, wpływają na efektywność rozwoju biznesu, edukacji, opieki medycznej, sektora rozrywki, itp. Wydaje nam się już oczywiste, że komunikujemy się poprzez telefony komórkowe z bliskimi nam osobami znajdującymi się w najdalszych krajach świata, docieramy samochodem do wybranych miejsc korzystając z GPS-u (Global Position System), korzystamy z laptopów i sieci internetowej w różnych miejscach pobytu, pracujemy w Polsce dla firm zlokalizowanych w innych krajach komunikując się internetowo, słuchamy muzyki z odtwarzaczy MP3 w różnych okolicznościach, a dzieci zabawiają się grami komputerowymi korzystając z przenośnych DVD. A przecież pamiętajmy, że jeszcze 20 lat temu w ogłoszeniach gazetowych dotyczących sprzedaży mieszkań w Polsce informowano, że mieszkania wyposażone są stacjonarny telefon – rarytas na owe czasy! Chcąc jednak bliżej określić polski wkład szczególnie w elektronikę, musimy się cofnąć do początków jej rozwoju, a ten początek datowany jest różnie. Zanim jednak sięgniemy do historii tej dziedziny musimy zdefiniować, czym jest elektronika. Można przyjąć, iż jest to dziedzina nauki i techniki zajmującą się wytwarzaniem i przetwarzaniem sygnałów w postaci prądów i napięć elektrycznych oraz pól elektromagnetycznych z nimi sprzężonych. Jeżeli tak zdefiniujemy elektronikę, to za najwcześniejszą datę w historii tej dziedziny można przyjąć rok 1882, kiedy to Thomas Alva Edison, próbując ulepszyć żarówkę odkrył, iż siatka metalowa którą owinął żarnik żarówki uzyskuje z upływem czasu jej pracy pewien ładunek elektryczny. Odkrył w ten sposób zjawisko termoemisji. Prace nad praktycznym wykorzystaniem tego zjawiska podjął pracownik brytyjskiego oddziału firmy Edisona, John Fleming, który w roku 1904 opatentował wynalezioną przez siebie lampę próżniową – diodę składającą się z dwóch elektrod. Następnie, milowym krokiem w rozwoju elektroniki było wprowadzenie trzeciej elektrody, pomiędzy dwie elektrody diody Fleminga,

Elektronika i fotonika w Polsce

287

umożliwiającej wzmacnianie sygnału elektrycznego. Dokonał tego w roku 1907 Lee de Forest. W kolejnych latach, udoskonalone lampy elektronowe dały początek rozwoju elektronicznej techniki obliczeniowej, radiotechniki, techniki radarowej, telewizji i wielu innych dziedzin elektroniki. Aż do późnych lat 70-tych w elektronicznym sprzęcie powszechnego użytku dominowały lampy. Do chwili obecnej, wprawdzie już w niewielkim stopniu, stosowane są specyficzne lampy próżniowe, jakimi są kineskopy telewizyjne. Współcześnie, lampy elektronowe wykorzystuje się nadal w najwyższej klasy sprzęcie audiofilskim.

(a)

(b)

Rys. 1. Miniaturowa lampa elektronowa (pentoda zawierająca pięć elektrod) stosowana w układach wysokiej częstotliwości (a) oraz produkowane w Polsce tranzystory germanowe i krzemowe (b)

Polski udział w rozwoju elektroniki Szukając polskich śladów w historii rozwoju elektroniki trafiamy na nazwisko profesora Politechniki Warszawskiej Janusza Groszkowskiego. Monografia profesora z okresu 20-lecia międzywojennego zatytułowana Lampy katodowe i ich zastosowanie w radiotechnice, stanowiła wnikliwą syntezę ówczesnej wiedzy o lampach elektronowych i wkrótce znalazła się wśród kanonów podręczników w czołowych uczelniach światowych. W 1939 roku prof. Groszkowski, jako pierwszy na świecie, skonstruował magnetron metalowy z katodą tlenkową i z korpusem chłodzonym

olejem.

Zbudowanie

tej,

na

ówczesne

czasy

niesłychanie

288

Piotr Grabiec, Antoni Rogalski

innowacyjnej, lampy mikrofalowej dużej mocy przyczyniło się niewątpliwie do skonstruowania radaru w Wielkiej Brytanii w 1940 r. Radar ten odegrał ważną rolę podczas II wojny światowej, umożliwiając aliantom skuteczną obronę przed nalotami niemieckich samolotów. Już po wojnie, w dużej mierze dzięki energii i inicjatywie Profesora, rozwijano w Polsce badania w obszarze elektroniki próżniowej a później i półprzewodnikowej. W naszym kraju produkowano szeroką gamę lamp elektronowych o przyzwoitej jakości, a także lampowy sprzęt elektroniczny. Kineskopy telewizyjne produkowano aż do początków bieżącego wieku, kiedy to Thomson-Polkolor w Piasecznie był jedyną w Europie i jedną z niewielu na świecie wytwórnią lamp kineskopowych. Lampy

elektronowe,

które

stanowiły

podstawę

rozwoju

przemysłu

elektronicznego posiadały jednak istotne wady. Były zawodne, duże i trudne do zminiaturyzowania. Nawet w wersji miniaturowej lampa mierzyła kilkanaście milimetrów. Lampy o większej mocy miały rozmiary rzędu kilkunastu centymetrów i więcej. Wymagały wysokich napięć zasilania i zużywały stosunkowo dużo mocy. Wady lamp stały się szczególnie niewygodne, gdy podjęto wysiłki w celu zbudowania elektronicznych urządzeń liczących, wówczas nazywanych przesadnie ”mózgami elektronowymi” a obecnie – komputerami. Pierwszy komputer elektroniczny, ”Eniac” o masie 27 ton, zajmował powierzchnię 140 m2, wyposażony był w 17 468 lamp elektronowych, a głównym zajęciem obsługi było lokalizowanie i wymiana uszkodzonych lamp. Nic zatem dziwnego, że świat elektroniki powitał z ogromnymi nadziejami wynalazek tranzystora. Jak zaznaczono powyżej, tranzystor odkryto w 1947 roku. Gwoli ścisłości trzeba jednak przypomnieć, że tak naprawdę, wynalazcą pierwszego tranzystora był, urodzony we Lwowie niemiecki naukowiec pochodzenia żydowskiego, profesor Julius Edgar Lilienfeld. Co więcej, tranzystor amerykanów z Bell Labs to tzw. tranzystor bipolarny obecnie używany rzadko, podczas gdy zgłoszone dwadzieścia lat wcześniej (w latach 1925 oraz 1928) patenty Lilienfelda opisują przyrządy działające podobnie jak współczesne tranzystory unipolarne (MOS) z których zbudowane są mikroprocesory i pamięci półprzewodnikowe. W odróżnieniu jednak od amerykanów, Lilienfeld nie miał możliwości zbudowania swojego tranzystora, gdyż nie miał odpowiednich materiałów. Pomysł Lilienfelda

Elektronika i fotonika w Polsce

289

wyprzedził więc swoją epokę, a nagrodę Nobla za wynalazek tranzystora dostali wynalazcy z Bell Labs w roku 1956. Postęp techniczny, rzadko kiedy, jest wynikiem genialnego pomysłu jednego człowieka i dotyczy jednej dziedziny wiedzy. Wykorzystanie potencjału aplikacyjnego jakiegoś pomysłu, zwykle opisanego w zgłoszeniu patentowym, wymaga badań w obszarze bardzo różnych dziedzin. Elektronika i fotonika są tej reguły dobitnym przykładem. Ich rozwój nie byłby możliwy bez postępu w innych obszarach nauki i techniki, w tym zwłaszcza w zakresie technologii materiałowych. Rozwój

tranzystorów

nie

byłby

możliwy

bez

opanowania

technologii

otrzymywania wysokiej jakości kryształów półprzewodnikowych, zwłaszcza krzemu. I tu, w tym krótkim przeglądzie historii elektroniki, natrafiamy na kolejne polskie nazwisko – profesora Politechniki Warszawskiej Jana Czochralskiego. Według anegdoty, dość zresztą prawdopodobnej, Czochralski pisząc notatki w roku 1916, przez roztargnienie zamiast w kałamarzu zanurzył stalówkę pióra w stojącym opodal tyglu w którym znajdowała się stopiona cyna. Wyciągając pióro zauważył, że do stalówki przyklejona jest cienka nitka zestalonej cyny. Zamiast zrzucić przeszkadzający mu metal i pisać dalej Czochralski, wiedziony genialną intuicją zbadał cynową nitkę promieniowaniem rentgenowskich i stwierdził, że nitka stanowi idealny kryształ – ma strukturę monokrystaliczną. W roku 1918 ukazała się jego publikacja opisująca to zjawisko wraz z opisem sposobu pomiaru szybkości krystalizacji. Wiele lat później, bo w roku 1950 w firmie AT&T Bell Labs po raz pierwszy wykorzystano metodę Czochralskiego do wytwarzania monokryształów krzemu. Obecnie, metoda Czochralskiego stanowi podstawę do produkcji krzemu światowego przemysłu elektronicznego; otrzymywane są kryształy o średnicy nawet do pół metra. Zaś profesor Czochralski stał najbardziej znanym w świecie techniki polskim uczonym i wynalazcą. Pierwsze, niezwykle proste układy scalone wytworzyli Jack Kilby i Robert Noyce.

Kilby,

będąc

świeżo

zatrudnionym

pracownikiem

laboratorium

badawczego firmy Texas Instruments opracował w roku 1958 układ germanowy, a w roku 1959 opatentował swój przyrząd. Z kolei Noyce (zatrudniony w firmie Fairchild, późniejszy współzałożyciel firmy Intel) w tymże 1959 roku skonstruował pierwszy układ krzemowy. Niedługo później, w roku 1961, jako

290

Piotr Grabiec, Antoni Rogalski

pierwszy w Europie a dokładniej, jako pierwszy poza USA, powstał nieco bardziej złożony układ scalony opracowany w Polsce przez młodego pracownika Instytutu Podstawowych Problemów Techniki PAN Cezarego Andrzeja Ambroziaka, doktoranta wspomnianego wcześniej prof. Groszkowskiego. Pionierskie prace Ambroziaka wykazały możliwość wytwarzania w kraju złożonych, nowoczesnych przyrządów półprzewodnikowych i legły u podstaw rozwoju mikroelektroniki w Polsce. W rozwoju tym profesor Ambroziak nadal uczestniczył, od roku 1973 jako dyrektor Instytutu Technologii Elektronowej (ITE) założonego siedem lat wcześniej (1966) z inicjatywy prof. Groszkowskiego.

Rys. 2. Przykładowe układy scalone i przyrządy optoelektroniczne opracowane w Instytucie Technologii Elektronowej i wdrożone do produkcji na przełomie lat 1970/80

Dalszy gwałtowny rozwój światowej mikroelektroniki przebiegał w sposób zadziwiająco zgodny z przewidywaniami późniejszego twórcy firmy INTEL Gordona E. Moore’a. W połowie lat 60-tych ubiegłego wieku w wewnętrznym raporcie firmy Fairchild pt. The future of Integrated Electronics” Moore przewidział, że stopień integracji układów scalonych będzie się podwajał na

Elektronika i fotonika w Polsce

291

przestrzeni jednostki czasu. Za jednostkę przyjął okres jednego roku. W dziesięć lat później, bo w 1975 roku Moore skorygował swoją prognozę przyjmując, że okres w którym stopień integracji podwaja się to nie rok ale dwa lata, natomiast najbliższa rzeczywistości okazała się wartość pośrednia – tj. półtora roku. Zasada ta, zwana powszechnie ”Prawem Moore’a” zdumiewająco dobrze opisuje rozwój mikroelektroniki na przestrzeni ostatnich 40-tu lat. Tak gwałtowny i konsekwentny wzrost stopnia integracji związany jest bezpośrednio z ogromnym rozwojem technologii procesów składających się na sekwencję wytwarzania przyrządów oraz technologii materiałów używanych do wytwarzania układów scalonych. Podczas gdy w pierwszych mikroprocesorach Intela (4004) najmniejsze wzory miały wymiar 10 m, w pierwszej połowie lat 80tych przekroczono barierę 1 m, a w roku 2004 wprowadzono na rynek mikroprocesory w technologii 90 nm co umożliwiło osiągnięcie gęstości upakowania rzędu 1 miliarda tranzystorów w jednym chipie! Kolejne kroki rozwojowe to technologie 65 nm, 45 nm i 35 nm. Układy w tej ostatniej technologii obecnie dostępne są komercyjnie, podejmowana jest produkcja układów w technologii 22 nm, a obecnie prowadzone prace badawcze dotyczą technologii 16 nm. 1.00 0.5m

Mikrometr

0.35 m 0.25 m 0.2m

0.10

“Węzeł technologiczny”

0.18m 0.13m

90nm 130nm

65nm 45nm

Długość kanału 70nm tranzystora 50nm

30nm 30nm 20nm

0.01 1990

10nm

1995

2000 Rok

2000

2010

Rys. 3. Rozwój technologii układów logicznych. Pokazana redukcja wymiarów fizycznych tranzystora (długości obszaru bramki) w kolejnych węzłach technologicznych

292

Piotr Grabiec, Antoni Rogalski Mikroelektronika wkroczyła zatem na dobre w zakres kontroli rozmiarów

manometrycznych, czyli do świata nanotechnologii. Warto tu podkreślić, że ”droga” o której tu mówimy, polegająca na zmniejszaniu wymiarów przyrządów to tzw. strategia ”top-down”, czyli z góry do dołu. Drugą możliwą strategią jest podejście ”bootom-up” czyli z dołu do góry, o którym mówimy w przypadku budowania nanostruktur z pojedynczych elementów (cząsteczek, atomów) tworząc materiały czy też struktury o określonych, pożądanych właściwościach. Obydwie te strategie nie są względem siebie konkurencyjne, lecz uzupełniają się wzajemnie. Rozwój mikroelektroniki w Polsce przebiegał w niezwykle trudnych warunkach. Jak wspomniano wcześniej, rozwój jej wymaga połączonego wysiłku wielu silnych zespołów badawczych i przemysłowych rozwijających elektronikę, fizykę, chemię, optykę, technologię materiałową, mechanikę precyzyjną i wiele innych dziedzin nauki i techniki. Polscy naukowcy i inżynierowie na skutek dwustronnego embarga, zachodniego i sowieckiego, pracowali w warunkach bliskich autarkii nie mając dostępu do najnowszych osiągnięć w tej wrażliwej militarnie dziedzinie zarówno w świecie Zachodnim jak i w pozostającym w tyle Związku Radzieckim, rozwijającym elektroniczne techniki militarne. W tych warunkach jako duże osiągnięcie należy uznać opracowanie i wdrożenie w latach 70-tych ubiegłego wieku przez zespoły ITE oraz fabryki półprzewodników CEMI szeregu układów scalonych bipolarnych i MOS, a na początku lat 80-tych opracowanie i wdrożenie do produkcji układów mikroprocesorowych. Opracowane produkty odbiegały jakością od poziomu światowego, umożliwiły jednak podjęcie w Polsce produkcji wielu wyrobów elektronicznych. Z drugiej strony jednak, już w połowie lat 80-tych było już jasne, że polski przemysł elektroniczny nie nadąża za światowym postępem. Warunki stanu wojennego (kryzys ekonomiczny, embargo na zakup nowoczesnych urządzeń technologicznych i pomiarowych i inne) dodatkowo spotęgowały niedostatki jego rozwoju. Obecnie pod kilkoma względami mamy już odmienną sytuację. Wzrost stopnia integracji układów scalonych pociągał za sobą dramatyczny wzrost kosztów urządzeń a także kosztów budowy pomieszczeń czystych (tzw. clean rooms) oraz instalacji. W efekcie, koszt budowy fabryki produkującej zaawansowane układy scalone znacznie wrósł, sięgając kilku miliardów dolarów.

Elektronika i fotonika w Polsce

293

Nawet jeżeli Polskę byłoby stać na wydanie takiej kwoty i zbudowanie nowoczesnej fabryki (w końcu budowa huty kosztuje więcej), to uzyskanie opłacalności produkcji wymagałoby tak ogromnej jej skali, że pociągałoby to za sobą konieczność zglobalizowania produkcji i operowania w skali rynku światowego. Stało się oczywiste że w krótkim czasie produkcja zaawansowanych układów scalonych stanie się biznesem dla kilku potentatów światowych a z pewnością

nie

dla

lokalnego

producenta

polskiego.

Rozwiązaniem

umożliwiającym utrzymanie technologii układów scalonych CMOS w Polsce rozważanym w gronie specjalistów było podjęcie niszowej produkcji średnio zaawansowanych a zawsze potrzebnych układów scalonych specjalizowanych (ASIC – Application Specific Integrated Circuits). Koncepcja ta została faktycznie podjęta przez kilka ośrodków naukowych i technologicznych, które rozpoczęły w latach 90-tych ubiegłego wieku produkcję doświadczalną układów opracowywanych dla potrzeb konkretnego odbiorcy. Jednocześnie zaczęto wdrażać i popularyzować w kraju koncepcję produkcji układów scalonych według tzw. strategii „FAB-LESS”, tzn. bez fabryki. Koncepcja ta, obecnie szeroko stosowana na świecie, polega na opracowywaniu projektu układu dla potrzeb odbiorcy w oparciu o szczegółowe wytyczne technologicznokonstrukcyjne uzyskane od faktycznego wytwórcy, którym może być firma usytuowana na drugim końcu świata. Projekt przesyłany jest elektronicznie do fabryki (tzw. „foundry”), która wykonuje w krzemie układy dokładnie zgodnie z założeniami, a zatem zgodnie z wymaganiami naszego odbiorcy. Wprowadzenie takiej strategii możliwe było tylko dzięki pełnej stabilizacji i standaryzacji technologii u wytwórców układów.

Materiały i przyrządy elektroniczne i fotoniczne Wielowiekowe doświadczenie człowieka wykazało, że podstawę technologii przyszłości stanowiły osiągnięcia w dziedzinie fizyki materii skondensowanej i to nawet wtedy jeśli w chwili odkrycia nie zauważono ich praktycznego znaczenia. Dotyczy to nie tylko nieznanych zjawisk, ale także nowych materiałów, zgodnie ze stwierdzeniem Tadahiro Sekimoto, prezesa Nippon Electric Corporation, że ”kto

294

Piotr Grabiec, Antoni Rogalski

panuje nad materiałami, panuje nad technologią”. Po drugie, okazuje się z reguły, że własności układów złożonych nie wynikają w prosty sposób z zasad rządzących ich składnikami. Jak to ujął Philip W. Anderson, noblista z 1977 r., ”wiele jest inne”. Chodzi tu o to, że opis układów złożonych wymaga często nowych koncepcji, które ze względu na swoją śmiałość intelektualną i uniwersalność odgrywają rolę nowych praw, nawet jeśli formalnie wynikają z praw bardziej podstawowych. Materiały półprzewodnikowe stosowane w konstruowanych z nich przyrządach są selekcjonowane w celu spełnienia odpowiednich funkcji elektronicznych i fotonicznych. W przypadku materiałów elektronicznych, te najważniejsze kryteria selekcji dotyczą szerokości przerwy energetycznej, ruchliwości

elektronów,

przewodnictwa

cieplnego,

i

pewnych

cech

spełniających warunki istotne w masowej produkcji. W przypadku systemów fotonicznych te kluczowe parametry nie tylko są uwarunkowane szerokością przerwy energetycznej, ale również tym czy przerwa ta jest prosta czy też skośna (patrz rys. 4). Podczas gdy historycznie rzecz biorąc, funkcje elektroniczne i fotoniczne przyrządów były niezależnie projektowane i rozwijane, obecny trend w kierunku spełnienie obydwu funkcji w jednym materiale

jest

zobrazowania

już (w

nieodwracalny. których

jakość

Osiągi

współczesnych

displeji

zależy

systemów

krytycznie

od

cienkowarstwowych tranzystorów zintegrowanych z każdym pikselem – elementem obrazowym), baterii słonecznych (gdzie sygnał elektryczny wywołany jest konwersją energii słonecznej) lub nowej generacji obwodów zintegrowanych elektryczne

(gdzie

pomiędzy

światłowody tranzystorami

optyczne

zastępują

rozmieszczonymi

połączenia w

różnych

płaszczyznach; jest to tzw. technologia nieplanarna, gdzie obwody budowane są warstwa po warstwie w trzecim kierunku – kierunek z) uwarunkowane są oddziaływaniem elektronów i fotonów w określonym materiale lub w tym samym przyrządzie.

Elektronika i fotonika w Polsce

295

Przerwa energetyczna (E g, d-prosta), długość fali ( l) i ruchliwość elektronów dla wybranych półprzewodników InSb Ruchliwość 2 (cm /Vs) 80 000

Ge 3 900

Si 1 500

(d)

Eg (eV) 0 l ( m)

GaP 110

SiC 400

(d)

0,5

6.0

GaAs 8 500

1,0

2.0

1,5

1.0

Podczerwone

GaN 380

ZnS 165

(d)(d)

2,0

2,5

0.6

3,0

0.4 Widzialne

3,5

4,0

0.3 Nadfioletowe

Rys. 4. Wybrane półprzewodniki i ich właściwości określające użyteczność stosowania w przyrządach elektronicznych i fotonicznych

Właściwości podstawowych materiałów półprzewodnikowych i wiedza technologiczna wytwarzania dyskretnych elementów elektronicznych były znane już w końcu lat 50-tych ubiegłego stulecia. Przyjmuję się, że drogę do współczesnej cywilizacji telefonii komórkowej, GPS-u, Internetu, elektronicznych systemów bankowych i potężnych maszyn liczących dostępnych dla przeciętnego obywatela otwarło wynalezienie w roku 1954 tranzystora krzemowego (Texas Instruments) a w rok później, opracowanie przez Bell Labs technologii planarnej wytwarzania tranzystorów. Krzem, w odróżnieniu od germanu i innych materiałów półprzewodnikowych, posiada szczególną cechę; jego tlenek – dwutlenek krzemu (SiO2) powstający na powierzchni płytki krzemowej w wyniku jej wygrzewania w atmosferze utleniającej (np. w tlenie lub parze wodnej) znakomicie przylega do powierzchni podłoża tworząc równomierną warstwę ochronną (pasywującą) osłaniającą leżący pod nią półprzewodnik. Jeżeli proces utleniania prowadzony jest w warunkach odpowiednio wysokiej czystości, właściwości elektryczne SiO2 są znakomite. Dwutlenek krzemu może być więc używany zarówno jako materiał maskujący domieszkowanie poszczególnych obszarów krzemu w procesie wytwarzania tranzystora jak również może chronić (mówimy – pasywować) powierzchnię krzemu stabilizując jej właściwości elektryczne. Zalety takiej nie

296

Piotr Grabiec, Antoni Rogalski

posiada german, stosowany początkowo do produkcji tranzystorów, i to zadecydowało o tym, że w Kalifornii powstała dolina krzemowa a nie germanowa. W następnych dekadach, dominującą pozycję utrzymał krzem stanowiący podstawowy materiał do produkcji układów scalonych, chociaż inne związki półprzewodnikowe, głównie arsenek galu (GaAs), coraz szerzej są stosowane w różnych elektronicznych i fotonicznych przyrządach; dla przykładu w komunikacji bezprzewodowej, w systemach mikrofalowych i cyfrowych o wysokiej szybkości transmisji danych. Również inne związki półprzewodnikowe są coraz szerzej wprowadzane w technologię krzemową. Dla przykładu, SiGe osadzany na Si wprowadza naprężenia sieciowe w Si, zaś Ge charakteryzujący się większą ruchliwością elektronów w porównaniu z Si, powraca jako istotny składnik półprzewodnikowej mikroelektroniki. Z kolei węglik krzemu (SiC), o znacznie większej szerokości przerwy energetycznej, stał się głównym półprzewodnikiem stosowanych w przyrządach elektronicznych dużej mocy. Uruchomienia przez Theodore Maimana (16 maja 1960 roku) pierwszego w świecie lasera ciała stałego i dwa lata później pierwszej półprzewodnikowej diody świecącej (LED – Light Emitting Diode) przez N. Holonyaka i S.F. Bevacqua zapoczątkowało erę fotoniki. Od tego czasu nastąpił lawinowy postęp w badaniach i zastosowaniach związków półprzewodnikowych grupy III-V takich jak GaAs, InP i GaP, którego kulminacja nastąpiła w połowie lat 90-tych ubiegłego wieku w związku z opanowaniem technologii lasera niebieskiego (promieniującego promieniowanie niebieskie) przez S. Nakamurę pracującego w firmie Nichia (Japonia). Rozwój badań grupy związków III-V wsparty postępem w technice próżniowej

doprowadził

również

do

wyodrębnienia

się

nowej techniki

precyzyjnego osadzania warstw półprzewodnikowych z dokładnością do grubości jednej monowarstwy, techniki zwanej MBE (Molecular Beam Epitaxy) czyli epitaksji z wiązek molekularnych (epitaksja rozumiana jest jako sposób osadzania warstw o strukturze odzwierciedlającej strukturę krystaliczną podłoża) (patrz rys. 5). Technika MBE pozwoliła na opanowanie technologii zaawansowanych przyrządów fotonicznych takich jak diody świecące i lasery, jak również przyrządów elektronicznych; np. heterozłączowych tranzystorów bipolarnych (HBT). Nowa generacja związków półprzewodnikowych grup III-V (takich jak

Elektronika i fotonika w Polsce

297

AlGaN, InGaAs i GaInSb) i II-VI (np. HgCdTe) wpłynęła na rozwój detektorów promieniowania w zakresie spektralnym od dalekiej podczerwieni do nadfioletu.

Rys. 5. Reaktor epitaksjalny MBE w Instytucie Wysokich Ciśnień Polskiej Akademii Nauk

Mówiąc o materiałach półprzewodnikach należy zaznaczyć o rosnącym znaczeniu półprzewodników organicznych zawierających takie pierwiastki jak węgiel, wodór i tlen. Klasyczne funkcjonalne półprzewodniki otrzymywane są w postaci materiałów litych (kryształów) lub w postaci cienkich warstw osadzanych na podłożach o często ograniczonych rozmiarach. Stosując tańsze półprzewodniki organiczne unikamy tych ograniczeń a ponadto rozszerzamy zakres ich zastosowań w obszary elektroniki i fotoniki nie objęte przez materiały klasyczne. Organiczne materiały emitujące promieniowanie zakresu widzialnego mogą być osadzane na cienkie zdeformowane podłoża. Umożliwiło to produkcję wielkoformatowych plastykowych struktur elektronicznych i fotonicznych, np. dużych displei.

Technologia CMOS i co dalej? A teraz bliżej opiszemy technologię CMOS (Complementary Metal-Oxide-

Semiconductor). Jest to technologia wytwarzania głównie układów cyfrowych, składających się z tranzystorów polowych MOS (Metal-Oxide-Semiconductor) o

298

Piotr Grabiec, Antoni Rogalski

przeciwnym typie przewodnictwa i połączonych w taki sposób, że w ustalonym stanie logicznym przewodzi tylko jeden z nich. Dzięki temu układ statycznie nie pobiera żadnej mocy (pomijając niewielki prąd wyłączenia tranzystora), a prąd ze źródła zasilania płynie tylko w momencie przełączania – gdy przez bardzo krótką chwilę przewodzą jednocześnie oba tranzystory. Tracona w układach CMOS moc wzrasta wraz z częstotliwością przełączania, co wiąże się z przeładowywaniem wszystkich pojemności, szczególnie pojemności obciążających wyjścia. Układy CMOS są relatywnie proste i tanie w produkcji umożliwiając uzyskanie bardzo dużych gęstości upakowania tranzystorów na jednostce powierzchni płytki półprzewodnika. Zasadniczą częścią tranzystora polowego (patrz rys. 6) jest kryształ odpowiednio domieszkowanego półprzewodnika z dwiema elektrodami: źródłem (symbol S od ang. source, odpowiednik emitera w tranzystorze bipolarnym) i drenem (D, drain, odpowiednik kolektora). Pomiędzy nimi tworzy się tzw. kanał, którym płynie prąd. Wzdłuż kanału umieszczona jest trzecia elektroda, zwana bramką (G, gate, odpowiednik bazy). W tranzystorach epiplanarnych, jak również w przypadku układów scalonych, w których wytwarza się wiele tranzystorów na wspólnym krysztale, wykorzystuje się jeszcze czwartą elektrodę, tzw. podłoże (B, bulk albo body, nie pokazano na rysunku), służącą do odpowiedniej polaryzacji podłoża Przyłożone do bramki napięcie wywołuje w krysztale dodatkowe pole elektryczne, które wpływa na rozkład nośników prądu w kanale. Skutkiem tego jest zmiana efektywnego przekroju kanału, co objawia się jako zmiana rezystancji dren-źródło.

Źródło,S

Bramka,G

Dren,D

Si typ p Długość kanału Rys. 6. Przekrój poprzeczny tranzystora MOSFET

Tlenek krzemu

Elektronika i fotonika w Polsce

299

W tranzystorach MOS-FET (Field Effect Transistor), oznaczanych w skrócie MOSFET, z kanałem wzbogacanym gdy napięcie między bramką G a źródłem S jest równe zeru, rezystancja kanału jest bardzo duża (rzędu megaomów). Mówi się wówczas, że kanał jest zatkany, ponieważ prąd dren-źródło praktycznie nie płynie. Po przekroczeniu pewnej wartości napięcia G-S kanał zaczyna się stopniowo otwierać i w obwodzie dren-źródło może płynąć prąd. Rezystancja między drenem D a źródłem S zmniejsza się ze wzrostem napięcia G-S, ale nie do zera, tylko do pewnej minimalnej wartości. Wartość tej rezystancji zależy od maksymalnego napięcia D-S jakie jest w stanie wytrzymać tranzystor i typowo wynosi od 0,07 Ω do 4,0 Ω dla krzemowych tranzystorów. Gdy prąd płynący przez kanał osiągnie wartość maksymalną dla danego napięcia dren-źródło, mówi się, że kanał jest otwarty. W zależności od typu półprzewodnika, w którym tworzony jest kanał, rozróżnia się:  tranzystory z kanałem typu p, w którym prąd płynie od źródła do drenu  tranzystory z kanałem typu n, w którym prąd płynie od drenu do źródła Ze względu na budowę i sposób działania tranzystorów polowych, prąd bramki praktycznie nie płynie (jest rzędu mikro- lub nanoamperów), dzięki temu elementy te charakteryzują się bardzo dużą rezystancją wejściową oraz dużą transkonduktancją. Wykonanie typowego obwodu scalonego składa się z sekwencji nakładania i zdejmowania określonych warstw formowanych poprzez stosowanie odpowiednich masek. W technologii CMOS obecnie dominującej, stosuje się dwadzieścia lub więcej warstw i masek aby otrzymać końcowy przyrząd. Innowacje wprowadzone zarówno w zakresie nowych materiałów i fabrykacji przyrządów pozwoliły zwiększyć funkcjonalność działania zarówno cyfrowych jak i analogowych przyrządów. Postęp w fabrykacji struktur, a w szczególności w narzędziach fotolitografii, umożliwił uzyskanie wysokiej rozdzielczości masek i doprowadził do niebywałego zminiaturyzowania przyrządów (zobacz rys. 3). W tym sensie, technologia

półprzewodnikowa

”wniknęła”

w

nanometryczne

rozmiary

(nanotechnologię) około 10 lat temu i kontynuuje dalszy technologiczny postęp stymulowany dodatkowo nowymi dziedzinami nauki takimi jak spintronika i

300

Piotr Grabiec, Antoni Rogalski

bioelektronika. Dodatkowo, technologia krzemowa jest szeroko stosowana w fabrykacji

systemów

(Microelectromechanical

mikroelektromechanicznych, Systems)

w

których

tzw.

MEMS-ów

wyjątkowe

właściwości

elektroniczne i mechaniczne krzemu pozwoliły na konstrukcje unikatowych systemów. Tendencja

miniaturyzacji przyrządów pokazana na rys. 3 zostanie

zahamowana około 2020 roku z powodu osiągnięcia fizycznych granic kwantowych działania tranzystora. W obecnej chwili trudno jest wyraźnie wskazać w jakim kierunku będzie postępował dalszy rozwój elektroniki i fotoniki. Oczekuje się wykorzystania nowych rozwiązań wymuszonych wyjściem poza technologię CMOS, głównie poprzez zwiększenie poziomu innowacyjności w zakresie podstaw fizycznych działania przyrządów. Wysiłki w tym kierunku czynione są obecnie w czołowych instytucjach naukowych na całym świecie; podejmuje się je również w Polsce. Poszukuje się koncepcji opartych o nowe materiały, jak np. nanorurki węglowe lub grafem, czy też koncepcji wykorzystujących nowe mechanizmy fizyczne, np. oparcie elektroniki o zmiany spinu elektronu – tzw. spintronika. W tym ostatnim obszarze badań uznane znaczenie w świecie mają badania prof. T. Dietla z Instytutu Fizyki Polskiej Akademii Nauk w Warszawie. Są to kierunki niesłychanie ważne, gdyż one zdecydują o przyszłości technologii układów scalonych po osiągnięciu nieprzekraczalnych barier dalszego rozwoju przez obecnie dominującą technologię CMOS. Z drugiej strony jednak można z dużą dozą prawdopodobieństwa przypuszczać, że koszt fabryki produkującej znacznie bardziej niż obecnie złożone układy scalone w takiej przyszłej ”po-CMOS-owej” technologii będzie nadal bardzo wysoki, zapewne nawet wyższy niż fabryk współczesnych.

Problemy

wynikające

z

gigantycznego

kosztu

fabryk

zaawansowanych układów scalonych oraz ogromnej skali produkcji pozostaną więc te same co obecnie. Z punktu widzenia średniej gospodarki kraju takiego jak Polska, znacznie ciekawsze wydaje się rozwiązanie polegające na oparciu koncepcji przyrządów elektronicznych i fotonicznych ukierunkowanych na obszary nauki i techniki mniej związane fizyką i chemią krzemu. Do takich dziedzin można zaliczyć: mechanikę, optykę, fizykę powierzchni, biologię, medycynę a nawet weterynarię. Można wytwarzać mikroprzyrządy łączące funkcje czujników, bio-

Elektronika i fotonika w Polsce

301

czujników, detektorów, z mechanizmami wykonawczymi oraz układami elektronicznymi. Przyrządy te określamy mianem mikro- i nanosystemów często dodając

określenie ”heterogeniczne” aby podkreślić,

że podstawowymi

materiałami konstrukcyjnymi są tu poza krzemem również metale, polimery, szkło czy ceramika. Mikro/nanosystemy możemy określać również jako ”inteligentne” (ang. smart) podkreślając ich integrację z mikroelektronicznymi układami obróbki sygnałów i logiki. Wszystko to wpisuje się idealnie w głoszone co jakiś czas przez polityków plany rozwojowe polskiej gospodarki łączone z jej innowacyjnością, czy też z nowym popularnym hasłem ”gospodarką opartą o wiedzy”. To ostatnie stwierdzenie sugeruje coś nowego, a przecież rozwój gospodarczy i skok cywilizacyjny krajów Europy Zachodniej, USA i Japoni w po II Wojnie Światowej jest właśnie ewidentnym przykładem, że wiedza stymulowała rozwój tych krajów. Obecnie państwem który uznał to za priorytetowy kierunek działania są Chiny. W Polsce niestety nie najlepiej to wygląda. Poniżej jednak podamy kilka wybiorczych przykładów, że nasz kraj powoli włącza się w globalny wyścig poszukiwania nowych kierunków badań w zakresie elektroniki i fotoniki, które w przyszłości mogą być podstawą do wprowadzania innowacyjności w naszej gospodarce.

Polska innowacyjność - przykłady Innowacyjność elektroniki i fotoniki najczęściej kojarzona jest w produktami nazywanymi w skrócie High Tech (jest to zwrot angielski określający zaawansowane produkty). Przy tym należy sobie uświadomić dobrze ugruntowane przekonania

w

działalności

organizatorów

życia

gospodarczego

krajów

technologicznie zaawansowanych, że:  sukces komercjalny w produktach High Tech może być osiągnięty jedynie poprzez opracowanie produktów unikalnych o parametrach lepszych od parametrów produktów dostępnych komercjalnie  w epoce globalizacji rynku nie jest celowe i opłacalne odtwarzanie w małej/średniej firmie zaawansowanych technologii, na opracowanie których potrzebne są bardzo duże środki finansowe.

302

Piotr Grabiec, Antoni Rogalski Niestety, ale w naszym kraju nie raz jesteśmy obserwatorami podejmowania

decyzji przeczącym tym oczywistym stwierdzeniom. Wynika to generalnie z braku perspektywicznej strategii rozwoju kraju, niekompetencji politycznych ośrodków decyzyjnych, przepisów prawnych regulujących przedsiębiorczość, wypracowania procedur postępowania w etapach badania-rozwój-wdrożenie i odpowiedniej polityki finansowej państwa. Polska, jako kraj o średniej gospodarce, nie może równomiernie finansować wszystkich kierunków badań, co ma miejsce w kraju bogatym takim jak USA. Coś trzeba wybrać. Zaś rozwój polskiej nauki i innowacji musi być strategicznie wypracowany i koordynowany przez Polski Rząd, a nie pozostawiony w zakresie kompetencji jednego czy drugiego ministra. Mimo tych obiektywnych trudności, w tym miejscu przytoczymy tylko niektóre przedsięwzięcia zakończone najpierw sukcesem naukowym a później sukcesem komercyjnym. Doświadczenia ITE jeszcze z okresu współpracy z polskim przemysłem elektronicznym (przed 1989 rokiem) pozwoliły już w latach 90-tych ubiegłego roku wdrożyć produkcję krzemowych diod lawinowych (specjalna konstrukcja diody tego typu pozwala uzyskiwać znaczne wewnętrzne wzmocnienie sygnału). Produkcja tych diod jest trudna ze względu na konieczność

precyzyjnego

formowania

profilu

domieszek

wewnątrz

półprzewodnika przy jednoczesnym zachowaniu bardzo wysokich parametrów złącza p-n. Poprzez podpisanie umowy z firmą amerykańską zapewniono skuteczną dystrybucję tych diod na rynkach światowych. Podjęta przez ITE produkcja doświadczalna przyniosła poważne efekty finansowe, które wsparły bardzo skromne w ówczesnym okresie środki przeznaczane przez państwo na badania a ponadto przyniosła zespołowi ITE szereg nagród krajowych, począwszy od Mistrza Techniki (1996/1998) aż po zespołową nagrodę gospodarczą Prezydenta Rzeczpospolitej Polskiej za najlepszy wynalazek w dziedzinie produktu lub technologii (Poznań 1998). Powyższe doświadczenia zespołu ITE zaowocowały ostatnio sukcesem w opracowaniu technologii detektorów krzemowych dla potrzeb środowiska fizyków badających strukturę materii w podgenewskim CERN czy też w innych czołowych ośrodkach naukowych Europy. Opracowane przez ITE, przy

Elektronika i fotonika w Polsce

303

współpracy naukowców z politechniki monachijskiej, matryce detektorowe wykorzystane w eksperymencie przeprowadzonym w Dubnej w maju 2006 roku przez międzynarodowy zespół z Szwajcarii i Zjednoczonego Instytutu Badań Jądrowych w Dubnej pod Moskwą, pozwoliły na zarejestrowanie atomów pierwiastka 112-283; po raz pierwszy w historii. Fakt ten odnotowano w licznych publikacjach naukowych, w tym również w naukowym magazynie Nature cieszącym się wysokim prestiżem w świecie. Wobec braku wielkiego kapitału i doświadczeń niezbędnych do samodzielnego

opracowania

i

uruchomienia

wielkoseryjnej

produkcji

zaawansowanych urządzeń elektronicznych, szansą dla rozwoju elektroniki i fotoniki w Polsce są przedsięwzięcia o charakterze niszowym. Przykładem jest polska produkcja niechłodzonych detektorów średniej i dalekiej podczerwieni przez Vigo System. Podstawowym materiałem do ich produkcji jest półprzewodnikowy roztwór stały HgTe z CdTe w skrócie oznaczany HgCdTe. Znaczenie tych detektorów na globalnym rynku uwarunkowane jest głównie

ich podstawową

zaletą

-

wyeliminowaniem

kosztownego

i

kłopotliwego chłodzenia detektorów. W początkowej fazie rozwoju tych detektorów ich właściwości były poprawiane przez optymalizację konstrukcji konwencjonalnych detektorów. Od końca lat 80-tych ubiegłego wieku rozwijana jest unikalna koncepcja przyrządu fotoelektrycznego, który nie jest zwykłym detektorem, a monolitycznie zintegrowanym przyrządem, który integruje funkcje optyczne, fotoelektryczne i elektroniczne. Większość produkcji Vigo System lokowana jest na rynkach USA, Japonii, UE i Korei Płd. Sprzedaż detektorów dla zastosowań w Polsce jest dość ograniczona. Jedynym krajowym zastosowaniem na większą skalę są zaawansowane systemy ochrony wozów bojowych przed środkami ataku z użyciem systemów laserowych produkowane przez Przemysłowe Centrum Optyki. Przykładowe produkty VIGO System pokazano na rys. 7.

304

Piotr Grabiec, Antoni Rogalski

(a)

(b)

Rys. 7. Produkty VIGO System: (a) różne typy detektorów, (b) mikrobolometryczna kamera termograficzna VIGOcam v60 (ilość pikseli 640×480) o wysokiej rozdzielczości temperaturowej i przestrzennej

Pisząc o polskiej elektronice i fotonice nie sposób pominąć polskich prac prowadzonych w Instytucie Wysokich Ciśnień Polskiej Akademii Nauk (IWC PAN) w Warszawie pod kierunkiem prof. S. Porowskiego w zakresie optoelektroniki

niebieskiej.

Prace

te

zapoczątkowane

były

w

ostatnim

dziesięcioleciu ubiegłego wieku, a obecnie koncentrują się głównie na uzyskaniu pracy ciągłej laserów dużej mocy z grupy związków półprzewodnikowych zwanych azotkami; takimi jak binarne związki GaN i InN, czy potrójne roztwory stałe AlGaN i GaInN. W latach 2000–2004 badania te były wspomagane Strategicznym Programem Rządowym ustanowionym jeszcze przez Rząd Premiera J. Buzka. Wierzono w sukces tego programu wychodząc z założenia, że zespół IWC dysponuje najlepszą na świecie technologią otrzymywania kryształów z GaN, które stanowiły podłoża do osadzania warstw epitaksjalnych tworzących strukturę lasera. Monokryształy GaN otrzymywano unikalną w świecie, wysokociśnieniową metodą wzrostu z roztworu w wysokociśnieniowym autoklawie. W tym czasie, dominująca w świecie w produkcji laserów japońska firma Nichia, jako podłoża stosowała tanie i stosunkowo duże monokryształy szafiru o średnicy 2–3 cali. Wadą stosowania tych podłóż była generacja wysokiej gęstości dyslokacji w aktywnym obszarze lasera, co powinno dławić akcję laserową. Dzięki jednak zastosowaniu specjalnych ”trików” technologicznych, udało się w Nichii tę przeszkodę

technologiczną

w

znacznej

części

wyeliminować.

Z

kolei

Elektronika i fotonika w Polsce

305

monokryształy GaN otrzymywane w IWC charakteryzowały się niską gęstością dyslokacji, jednak nie udało się znacznie zwiększyć rozmiarów kryształów, co ma decydujące znaczenie w podejmowaniu ewentualnej produkcji laserów (mniejsze koszty, spełnienie standardów tzw. processing-u przyrządowego). Z perspektywy czasu można stwierdzić, że nie uzyskano zamierzonych celów z kilku powodów. Dwa najważniejsze z nich wydają się być oczywiste:  program był bardzo optymistycznie opracowany jeżeli chodzi o końcowe jego efekty (rezultaty),  przeznaczone niskie środki finansowe nie gwarantowały osiągnięcia celów programu. Godne podkreślenia jest, że zespół IWC jest nadal jednym z nielicznych w świecie, któremu udało się uzyskać akcję laserową w związkach azotowych i w skali laboratoryjnej wytwarza lasery niebieskie dużej mocy (patrz rys. 8). Pochodną polskich zmagań z laserem niebieskim jest powstanie dwu firm: TopGan i Ammono. Ta ostania osiągnęła znaczny postęp w otrzymywaniu już dwu/trzycalowych podłóż z GaN (patrz rys. 9) i może stać się ważnym ”graczem” na globalnym runku podłóż do laserów niebieskich.

Rys. 8. Laser niebieski dużej mocy otrzymany w IWC PAN

Rys. 9. Dwucalowa przezroczysta płytka monokryształu GaN wyprodukowana przez firmę Ammono

Na zakończenie tej krótkiej prezentacji polskich sukcesów w zakresie elektroniki i fotoniki w ostatnich latach wróćmy do wspomnianych już uprzednio

306

Piotr Grabiec, Antoni Rogalski

systemów mikroelektromechanicznych (MEMS-ów). Mogą one być stosowane w bardzo różnorodnych okolicznościach, często dalekich od klasycznych zastosowań elektroniki czy fotoniki. Weźmy np. mikrosystemy w medycynie. Obejmują one zarówno sensory jak i elementy wykonawcze (aktuatory), układy elektroniczne i komunikacji

bezprzewodowej

nadające się

znakomicie

dla

wytwarzania

najróżniejszych przyrządów wspomagających pracę lekarza. Opracowywane są systemy dozujące lekarstwa w sposób przystosowany do rzeczywistych potrzeb pacjenta, systemy diagnostyczne, implanty medyczne i wiele innych. Zespół ITE brał udział w realizacji dużego europejskiego projektu badawczego o nazwie ”Healthy Aims” którego celem było opracowanie właśnie szeregu urządzeń służących jako implanty medyczne. Zadaniem zespołu ITE było przeprowadzenie analizy możliwości wytwarzania elektrod dla systemów przywracających słuch przy użyciu technologii mikrosystemów. Okazało się, że adaptacja procesów technologicznych przeniesionych z technologii wytwarzania układów scalonych stworzyła możliwość opracowania znacznie tańszej, precyzyjniejszej i bardziej powtarzalnej metody wytwarzania elektrod platynowych spełniających zakładane oczekiwania (patrz rys. 9).

(a)

(b)

Rys. 10. Usytuowan ie implantu ślimakowego w uchu (a). Sygnał ze stymulatora doprowadzany jest poprzez przewody doprowadzające do wielo-elementowej elektrody usytuowanej wewnątrz ślimaka. Po prawej stronnie (b) przedstawiono zdjęcie mikroelektrody opracowanej przez zespół ITE w ramach projektu europejskiego Healthy Aims

Elektronika i fotonika w Polsce

307

Podsumowanie W Polsce jest wiele zespołów badawczych zarówno w uczelniach akademickich, jak i instytutach badawczych, prowadzących działalność naukową i wdrożeniową w obszarach elektroniki i fotoniki. Wśród uczelni akademickich na szczególną uwagę zasługują zespoły Politechniki Warszawskiej, Wrocławskiej, Łódzkiej, Gliwickiej, Akademii Górniczo-Hutniczej, Wojskowej Akademii Technicznej;

zaś

wśród instytutów badawczych



Instytut

Technologii

Elektronowej i Instytut Technologii Materiałów Elektronicznych. Istotne prace podstawowe w obszarze fizyki półprzewodników, przyrządów kwantowych i spintroniki prowadzą Instytut Fizyki PAN oraz zespoły uczelniane (np. z Wydziału Fizyki Uniwersytetu Warszawskiego). Wyróżniającym się instytutem w zakresie badań i opracowań technologii azotków jest IWC PAN. Podkreślić też trzeba znaczenie badań Instytutu Biocybernetyki i Inżynierii Biomedycznej PAN działającego w obszarze inżynierii biomedycznej. Uznane polskie uczelnie dysponują wysokokwalifikowaną kadrą naukowo-dydaktyczną gwarantującą dobre przygotowanie studentów do pracy zawodowej w obszarach nauki i technologii elektronicznych. Mamy nadzieję, że przedstawiony zarys historyczny a następnie podane przykłady naszych bieżących prac badawczo-rozwojowych pokazały, że elektronika i fotonika operująca na styku wielu różnych dyscyplin naukowych jest wspaniałym polem samorealizacji młodych utalentowanych osób. Zapraszamy do udziału.

308

Piotr Grabiec, Antoni Rogalski