Technologie 5G-V2X, tedy propojení komunikační technologie Vehicle-to-Everything se sítí 5G, již pozvolna začíná pronikat do praxe. Jednou z jejích pozitivních stránek je určitě i to, že umožňuje plnou propojitelnost se starší technologií LTE-V2X. Vozidla i příslušná silniční infrastruktura si tak v podstatě již nyní mohou vyměňovat řadu potřebných informací, a to buď v režimu přímé komunikace, tedy zcela bez potřeby síťového pokrytí, nebo standardně, tedy s využitím mobilních sítí.

Jen na evropském kontinentu jsou již prostřednictvím 4G-LTE připojeny miliony vozidel a průmysloví analytici odhadují, že více než 70 % všech prodaných nových vozidel je již vybaveno technologií 4G. Služby 5G-V2X by však měly umožňovat ještě mnohem pokročilejší služby propojené mobility a otevřít tak cestu k autonomní jízdě, ale – jak již bylo uvedeno – při zachování interoperability s již existujícími vozidly vybavenými LTE-V2X.

Co přinesl kongres

Na nedávném celosvětovém kongresu ITS (Intelligent Transport Systems), největší a nejvýznamnější akci na světě zaměřené na chytrou mobilitu a digitalizaci dopravy, letos konané v německém Hamburku, upozornil svaz 5GAA (5G Automotive Asociation – svaz výrobců automobilů specializujících se na implementaci 5G sítí) na to, že v dohledné době bude nezbytné provést revizi stávající evropské směrnice ITS. Tato revize by podle 5GAA měla do budoucna zesílit tlak na neutrální přístup k technologiím. Proč? Právě z důvodu zajištění kontinuálního vývoje, tedy v návaznosti na starší komunikační platformu. A také s ohledem na geopolitické poměry. Vzhledem k tomu, jak rychlý je vývoj v současné době v oblasti 5G sítí a mobility v Číně a ve Spojených státech, potřebuje totiž Evropa jasný technicko-právní rámec zaměřený na budoucnost, aby si i nadále udržela své přední postavení.

Pokročilé formy řízení vozidel se skutečně formují globálně, avšak v tuto chvíli je jedinou zemí, která má na trhu komerčně dostupná vozidla podporující 5G Cellular-Vehicle-to-Everything (C-V2X) již zmíněná Čína. V současnosti je na trhu 14 modelů vybavených technologií C-V2X. Ve Spojených státech se Ford zavázal nasazovat od začátku roku 2022 technologii C-V2X ve všech nových modelech. V Evropě se očekává, že se vozy s podporou 5G dostanou na trh ještě letos, a to díky automobilce BMW.

„Pokud technologie 5G pronikne do automobilového průmyslu, bude pravděpodobně jejím největším přínosem to, že výrazně přispěje ke snížení počtu nehod na silnicích a zachrání tak miliony životů,“ uvedl technický ředitel svazu 5GAA Maxime Flament. „Kombinace konektivity s dlouhým a krátkým dosahem, kterou C-V2X nabízí, skýtá optimální parametry pro zajištění bezpečnosti a efektivity provozu, navíc snižuje environmentální stopu,“ dodal. Masivnější prosazení technologie C-V2X ve světě by tedy mělo rozhodně mít příznivý vliv v oblasti tzv. udržitelného rozvoje.  

V příštích dvou až třech letech očekává 5GAA rychlé zavádění technologie C-V2X do praxe. Komercializace takto vybavených vozidel však nestačí: celý ekosystém – od samotných automobilů přes cloud, mapy, mobilní sítě, systém určování polohy až po silniční infrastrukturu – musí být perfektně odladěný, uživatelsky maximálně přátelský. 5GAA proto na kongresu navrhla vytvoření platformy, v jejímž rámci by na dalším vývoji v této oblasti spolupracovaly přední automobilky, telekomunikační společnosti a další významné technologické firmy. Platforma by tak měla umožnit vývoj komplexních řešení konektivity pro budoucí služby v oblasti mobility a dopravy.

Prioritní technologie

Podle expertů svazu 5GAA budou pro urychlení zavádění inovací klíčová určitá specifická opatření, resp. technologie. Důležitá bude například implementace systému, který dokáže varovat před nehodami a pomáhá chránit připojená vozidla a cyklisty nebo jiné zranitelné účastníky silničního provozu, jako jsou jezdci na elektrokolech, elektrokoloběžkách nebo chodci. Tento systém již vyvinuly společnosti Continental a Deutsche Telekom. Řešení dokáže monitorovat a vypočítávat trasy, po nichž běžně jezdí automobily i bicykly. Pokud je pravděpodobné, že se v některém místě automobil a bicykl setkají, systém oba tyto účastníky silničního provozu varuje prostřednictvím mobilní komunikace v reálném čase. Je třeba dodat, že počáteční silniční testy tohoto systému již proběhly a byly úspěšné.

Dalším důležitým opatřením bude podle 5GAA implementace algoritmu Location-as-a-Service. Ten zlepší určování polohy účastníků silničního provozu díky tomu, že si vozidla budou průběžně vyměňovat data prostřednictvím sítě 5G. Tuto technologii aktuálně vyvíjí německý Fraunhoferův institut. Tato služba bude například schopná upozornit řidiče na možnou srážku s cyklistou, jezdcem na e-koloběžce nebo na poškozou vozovku. Bude ale také umět navést nevidomého na požadované místo, třeba do obchodu či úřadu nebo ke dveřím autobusu. V takovýchto situacích má vysoce přesná lokalizace samozřejmě vždy zásadní význam.

Prohlášení tohoto typu na takovýchto akcích bývají ve většině případů čistě deklaratorní, zda se tedy podaří stanovené cíle v dohledné době uvést do praxe, resp. jakou podobu budou mít, se v tuto chvíli můžeme pouze dohadovat. Snahy jsou to ale nepochybně záslužné.     

Na startupovou akci Future City Boot Camp, která se v nedávné době coby doprovodná část prestižní soutěže Startup World Cup & Summit konala v Praze, zavítal i katalánský startup Shotl. V jejím průběhu jsme měli možnost popovídat si s jeho spoluzakladatelem a ředitelem Gerardem Martretem o zajímavé aplikaci, kterou Shotl vyvinul především pro oblast městské mobility.

Mohl byste krátce představit vaši společnost? Jaké byly její začátky?

Společnost Shotl byla založena v březnu 2017 v Barceloně a rychle se vypracovala do podoby plnohodnotné firmy, která dokáže nabízet plnohodnotné produkty. V současné době již má licenci k našim technologiím řada dopravních operátorů, obcí a korporací po celém světě.

Jaké služby nebo aplikace Shotl v současné době nabízí?

Naše firma Shotl nabízí softwarovou platformu určenou pro oblast mobility. Provozovatelům veřejné dopravy umožňuje poskytovat služby typu on-demand, nejčastěji prostřednictvím sítě autokarů či malých autobusů. Algoritmy této platformy v reálném čase navádějí vozidla tak, aby se při přepravě co nejlépe zohlednily počátek a cíl cesty jednotlivých cestujících, zvláště pak v oblastech, kde je veřejná doprava často nedostatečná a vysoce dotovaná. Týká se to zejména vzdálenějších obytných předměstí velkých měst, ale i byznysových parků, průmyslových zón, dopravních uzlů, jako jsou letiště, nebo malých vesnic. Našimi hlavními zákazníky jsou tedy města, která mají zájem nabízet svým občanům inovativní dopravní služby, nebo také přepravci, kteří se na trhu snaží uspět s novým paradigmatem mobilita jako služba. K našim zákazníkům patří ale například také business parky nebo univerzity, které nabízejí interní dopravu pro své zaměstnance nebo studenty.

Zakladatel a CEO startupu Shotl Gerard Martret (Foto: Shotl)

Co je hlavním problémem nebo úkolem, který chce vaše společnost vyřešit?

Shotl pomáhá městům a dopravním společnostem lépe využívat jejich autobusové provozy tím, že na málo vytížené trasy mohou nasazovat autobusy přepravující cestující v módu on-demand, tedy na vyžádání, aby tak obecně řečeno urychlily přechod od automobilové kultury k integrované mobilitě, ve které v posledku již nebudou potřební řidiči. Ve finální fázi by tedy mělo jít o autonomní provoz.

V oblasti mobility dnes narážíme na celou řadu nejrůznějších problémů, co vás vedlo k tomu, že jste se rozhodli řešit právě tento problém?

Chtěli jsme zkrátka vyvinout platformu, díky níž bude hromadná doprava stejně flexibilní a pohodlná jako osobní automobil. Máme ambiciózní cíl: do 10 let chceme pomoci snížit počet osobních automobilů ve městech o 50 %.

Jak vaše platforma funguje? Mohl byste popsat základní principy vašeho řešení?

Platforma Shotl se v podstatě skládá ze tří aplikací, které spolu zcela bezproblémově spolupracují: jmenovitě se jedná o uživatelskou aplikaci, řídicí aplikaci a modul pro správu. Součástí systému jsou dále tzv. backendové algoritmy, které dokážou propojit uživatele sdílených vozidel podle toho, odkud jedou a kam.

Co by mělo být hlavní výhodou tohoto řešení pro jeho uživatele?

Zcela jednoduše řečeno nabízíme optimalizované řešení pro tzv. první a poslední míli včetně tzv. dynamického směrování a okamžité odezvy na aktuální poptávku a zapojení technologií strojového učení.

Jak chcete získávat další zákazníky, jak je chcete přesvědčit, aby použili právě vaše řešení?

To je jednoduché, máme již vyzkoušeno, že Shotl dokáže v porovnání s autobusovou pevnou linkou snížit provozní náklady až o 15 %. Vedle toho také dokáže zvýšit poptávku uživatelů, a to až pětinásobně po zhruba 6 týdnech od spuštění služby.

(Foto: Shotl)

Je vaše technologie již ve finální podobě, je tedy již hotová, nebo plánujete její další vývoj?

Technologie je již vyspělá a plně funguje v několika zemích po celém světě. Přesto na jejím vylepšování stále pracujeme. Naši experti na mobilitu ji neustále rozvíjejí, přičemž velmi silně zohledňují připomínky a návrhy našich zákazníků. Přihlížejí také k nejnovějším trendům v oblasti MaaS a SaaS, aby rozšiřovali funkce a přidávali nové a stále tak zlepšovali uživatelské prostředí a zvyšovali jeho komfort.

Jaké jsou hlavní překážky (pokud existují) pro zahájení hromadné implementace vaší platformy?

Komunita koncových uživatelů nebo i vývojářů možná bude tuto technologii přijímat pozvolna, ale myslím si, že v oblastech, kde již byla implementována, se nadmíru osvědčila.

Už jste vyřešili financování? Hledáte partnera se silným finančním zázemím?

Nedávno jsme se stali součástí SWVL, což je první jednorožec z oblasti Blízkého a Středního východu, který vstoupil na burzu Nasdaq. Díky tomuto spojení jsme nyní společností, která dokáže poskytovat opravdu komplexní end-to-end řešení.

Podíl elektroniky, různých řídicích prvků a softwaru na řízení a provozu vozidel se neustále zvyšuje a úměrně tomu roste i hrozba hackerského útoku na ně. Výrobci automobilů však pouze dohánějí několikaleté zpoždění v zabezpečení proti hackingu, které mají vzhledem k IT průmyslu.

Hacking automobilů není nic nového. Zpočátku šlo zejména o jednoduché techniky napodobení dálkového odemykání vozidel. S rostoucím množstvím elektronických prvků ve vozidlech ale stoupá i jejich zranitelnost. Luxusnější moderní automobil v sobě skrývá stovky elektronických prvků, více než 4 km kabelů a drátů a miliony řádků softwarového kódu.

„V podstatě jakákoliv vozidla, která v dnešní době opustí výrobní linku, obsahují integrované obvody, které řídí různé funkce. Mezi kritické funkce patří například brzdy, airbagy nebo bezpečnostní pásy. Dále se může jednat o řízení spalování či efektivní spotřeby, informace o poloze vozidla, ale i služby, které zlepšují komfort řidiče během jízdy. Výrobci aut v poslední dekádě investovali prostředky do vývoje elektroniky, která dělá vozidla efektivnější, pohodlnější a v rámci možností i ekologičtější. Ovšem s nárůstem objemu elektroniky a obslužného softwaru se přímo úměrně rozrůstají možnosti útočníka, který se může pokusit danou funkčnost zneužít ve svůj prospěch,“ říká Michal Merta, ředitel pražského Cyber Fusion Centra společnosti Accenture.

Odposlechnout a napodobit sekvenci

Hackeři se v první řadě zaměřují na to, z čeho mohou mít přímý užitek. Proto se hlavní zájem soustřeďuje stále na to, jak vozidlo odcizit. U bezklíčkových systémů odemykání se většinou zloději snaží odposlechnout a napodobit sekvenci signálů, které majitel vozidla vyšle.

Pokud chtějí být hackeři úspěšní, musejí být vždy o krok před výrobci. Jakmile tedy výrobci automobilů zareagovali tím, že pevnou sekvenci signálů vysílaných ovladačem nahradili variabilní plovoucí sekvencí, útočníci nasadili dlouhodobější odposlouchávání a prediktivní metody odhadu potřebného sledu signálů. S využitím bezklíčkových mechanismů startování vozidla si zase poradili spoluprací dvou hackerů se dvěma rádii, která imitují vysílání nízkých a vysokých frekvencí, jež probíhá při přiblížení majitele a ovladače a stisku tlačítka startování.

Problém s hackingem automobilů je zejména v tom, že je možné ovládnout systémy, jejichž nefunkčnost přímo ohrožuje lidské životy. Lze zneužít například senzory, které monitorují tlak v pneumatikách, takže vysílají varovné signály nebo zamezí vozidlu v další jízdě. Ovládnout lze dokonce celý infotainment automobilu, jak tomu bylo například při nejznámějším simulovaném hackingu Jeepu Cherokee, který útočníci v rámci demonstrace donutili při jízdě na dálnici zrychlovat a zpomalovat, při pomalé jízdě paralyzovali brzdy, a posléze auto zcela odstavili z provozu.

Možnosti hackerů stále rostou

S konektivitou rostou možnosti hackerů„Většina moderních automobilů je vybavena internetovým připojením, které umožňuje cestujícím a řidiči snadný přístup k zábavě, navigaci a informacím. Připojení automobilu k internetu jej ale vystavuje většímu nebezpečí vzdálených útoků. Na letošní konferenci Black Hat tak například odborníci z týmu Sky-Go předvedli další úspěšný hack automobilu. Konkrétně se jednalo o Mercedes-Benz třídy E, v jehož softwaru byl nalezen více než tucet zranitelností. Ty umožnily útočníkům třeba vzdáleně otevřít dveře nebo nastartovat motor,“ říká Ondřej Ševeček, odborník na počítačovou bezpečnost a dodává: „Stále více zařízení obsahuje čipy, které shromažďují a odesílají informace nebo jsou dokonce zapojené do firemních sítí a cloudových řešení, a jejich zabezpečení je velkou výzvou pro odborníky na kybernetickou bezpečnost.“

Přes auta se však dají napadat i další systémy. Prostřednictvím nabíjecích zařízení pro elektromobily lze například proniknout do domácích a firemních sítí. V nedávno zveřejněném testu odborníci prověřili nabíječky několika značek a ukázalo se, že u několika z nich by sofistikovanější útok umožnil hackerovi přístup do wi-fi sítě. Následně by pak bylo možné sledovat provoz v síti nebo dokonce ovládnout zařízení, která jsou do ní připojená. Navíc získání vzdáleného přístupu k nabíječce vozidla znamená, že útočník nad ním získá plnou kontrolu, tedy že může i zablokovat přístup majiteli.

Jednou z mladých společností, která se zúčastnila nedávného pražského startupového bootcampu a soutěže Startup World Cup & Summit, byla španělská HOPU. Její IT řešení by mělo podle jejích vlastních slov městům umožnit inovace prostřednictvím klíčových technologií, jako je umělá inteligence, internet věcí nebo tzv. Data Quality – kvalita dat. O bližší charakteristiku tohoto řešení jsme požádali vedoucí marketingu startupu HOPU Andreu Gómez Olivu.

Mohla byste stručně představit společnost HOPU? Kdy, kde a jak vznikla?

HOPU je španělská společnost, která se snaží aplikovat ve městech inovace prostřednictvím nejnovějších technologií, jako je umělá inteligence, internet věcí nebo tzv. kvalita dat (Data-Quality). Pohybujeme se v technologickém sektoru tzv. smart cities – monitorujeme, analyzujeme a vizualizujeme environmentální data. V našem katalogu máme například různá zařízení, která umožňují monitorovat emise, povětrnostní podmínky, hluk či lokální kumulace osob. Vedle toho nabízíme rovněž odpovídající vizualizační nástroje, jako jsou dashboardy, různé specificky zaměřené aplikace a datové modely využívající umělou inteligenci pro korelaci dat.  

Společnost HOPU, jejíž centrála se nachází v Murcijském regionu na jihovýchodě Španělska, vznikla v roce 2014. Aktuálně máme multidisciplinární tým složený z 35 pracovníků – inženýrů, vývojářů, datových expertů a odborníků na marketing a komunikaci – a zakládáme pobočky v dalších městech, například v Berlíně.

Na řešení jakých problémů se vaše společnost zaměřuje především?

Hlavním problémem, který řešíme, je podpora městských plánovačů a dalších podobně zaměřených expertů v jejich rozhodovacích procesech. Chceme jim pomoci vyhnout se případným sankcím, umožnit jim urychlit investice do technologií, které dokážou zmírnit změny klimatu, a vyhnout se ztrátě grantů kvůli nedostatku indikátorů/výsledků založených na nezpochybnitelné evidenci. Naší ambicí zkrátka je zajistit, aby jejich rozhodování zohledňovala příslušné ukazatele udržitelnosti, změny klimatu, kvality ovzduší a byla ku prospěchu obyvatel měst.

Jsme tu, abychom podpořili jakékoli rozhodnutí o udržitelném městském rozvoji a digitální transformaci prostřednictvím nástrojů založených na dashboardových datech, nástrojů na podporu rozhodování a zařízení z oblasti internetu věcí umožňujících sledování udržitelnosti a stavu životního prostředí. Propojujeme data, technologie a lidi, abychom vytvořili účinný nástroj pro městské inovace. Naším cílem je vytvářet taková města, kde lidé budou cítit, že opravdu žijí ve smart city.

Tým startupu HOPU (Andrea Gómez Oliva je v první řadě zcela vlevo)

Proč jste si vybrali právě tuto problematiku?

Potřeba řešit výše uvedené problémy je velmi bezprostřední, a to kvůli předpisům, jako je například Zákon o změně klimatu (Climate Change Act) či Zelená dohoda pro Evropu (European Green Deal). Ty ale také vytvářejí podmínky pro růst trhu. Nacházíme se nyní ve fázi, kdy se začínají rodit chytrá města a zároveň je třeba intenzivně řešit dopady klimatické změny. Ve Španělsku na to jsou momentálně vyčleněny investiční prostředky ve výši 870 milionů eur, v Německu půl miliardy eur. Velikost trhu s technologiemi zaměřnými na sledování kvality ovzduší byla poradenskou společností Frost & Sullivan odhadnuta na téměř 7 miliard USD. Pokud však tento trh rozšíříme o navazující služby, služby s další přidanou hodnotou, které podporují urbanistické plánování a rozvoj, dostaneme se až k číslu 98 miliard USD. Při naplňování cílů udržitelného rozvoje, resp. udržitelných měst je navíc možné využívat investic z Investičního plánu pro udržitelnou Evropu, fondu Just Transition, od Světové banky či mezinárodní rozvojové banky.

Můžete popsat základní princip vašeho technologického řešení? Co by mělo být jeho hlavní uživatelskou výhodou?

HOPU se rozvíjí ve dvou liniích: v jedné probíhá vývoj SaaS (software jako služba) pro analýzu a vizualizaci dat, a to s jasnými ukazateli pro konkrétní osoby s rozhodovací pravomocí. Ve druhé linii vyvíjíme monitorovací zařízení pro sběr vysoce kvalitních dat.

SaaS, který jsme v HOPU vyvinuli, se zaměřuje na monitoring životního prostředí, jehož součástí jsou digitální služby s tzv. kontextovou inteligencí. Tato aplikace městům umožňuje shromažďovat, analyzovat a vizualizovat velké množství údajů charakterizujících aktuální situaci měst. Její součástí jsou datové sady vytvořené ze zdrojů na bázi internetu věcí, satelitů, různých enviromentálních zdrojů, utilit a otevřených dat, které poskytují řadu ukazatelů usnadňujících pochopení stavu životního prostředí na daném území v konkrétním čase. Řešení je postaveno na standardech kvality dat (IEEE P2510), datových prostorech a inteligentních datových modelech (FIWARE, IDSA a GAIA-X) a datové interoperabilitě (ETSI a OGC).

V porovnání s konkurencí jsou hlavními přednostmi našeho řešení kvalita a spolehlivost dat. Ráda bych zdůraznila, že naše řešení nabízí certifikovanou kvalitu dat (již zmíněné IEEE P2510) a validaci externími institucemi, jako je Environment Centre (CETENMA), a certifikačními autoritami (SGS).

Jak hodláte přesvědčit potenciální zákazníky, aby si vybrali právě vaše řešení?

Naše řešení Unique Value Proposition umožňuje sledovat kvalitu ovzduší, a to s vysokou přesností a spolehlivostí. Naše datové soubory jsou velmi kvalitní, k jejich zpravování používáme pokročilé algoritmy a odpovídající služby, včetně více než 3 TB historických dat a tréninkových modelů, na jejichž základě dokážeme vytvářet velmi přesné předpovědi a modely prevence, které jsou v souladu s předpisy Evropské unie i americké Agentury pro ochranu životního prostředí (EPA).

HOPU se řídí již zmíněným standardem kvality dat IEEE P2510, který umožňuje korelovat data z více zdrojů, různých geografických poloh a kontextů, a to jako součásti cloudové platformy s podporou umělé inteligence.

Našimi hlavními výhodami ve srovnání s konkurencí jsou kvalita dat, používání otevřených standardů, kompatibilita, certifikáty kvality a dobré reference díky projektům, na nichž se HOPU podílí, jako je například tvorba nízkoemisních zón v centru Madridu, či jiné podobné projekty na dalších místech ve Španělsku, ale i v Helsinkách, Lisabonu nebo Ženevě.

Ukázka jednoho z městských tzv. smart spots, na kterém se podílel startup HOPU (Kredit: HOPU)

Je vaše technologie již kompletně dokončená, nebo ji stále rozvíjíte?

Máme katalog již hotových řešení, ale HOPU neustále roste. Pracujeme na rozvoji v oblasti analýzy dat a umělé inteligence. Nyní je v provozu více než 10 našich řešení v několika evropských hlavních městech a předpokládáme, že do roku 2023 tento počet rozšíříme na 50.

Jaké jsou hlavní překážky, pokud jsou nějaké, pro zahájení širší implementace vašeho řešení?

HOPU o širší implementaci samozřejmě usiluje, budujeme partnerskou síť, abychom byli schopni řešit i velké projekty na různých místech Evropy. V poslední době jsme ve Španělsku navázali spolupráci se společnostmi Telefónica (O2) a big telco a plánujeme nasadit 300 našich zařízení v andaluské provincii Cádiz.

Již máte zajištěno financování vašeho dalšího rozvoje? Hledáte partnera se silným finančním zázemím?

HOPU aktuálně usiluje o získání investice ve výši dva miliony eur, kterou by měly z části pokrýt veřejné půjčky pro startupy, včetně ENISA a CDTI od španělské vlády, z části pak soukromí investoři, jako například BStartup, LeadBlock, Torret Road Capital, Wayra a Lanzadera. HOPU je rovněž součástí klíčových investičních programů, jako jsou EIT Digital Evropské komise, Wayra Telefóniky a Lanzadera španělského podnikatele Juana Roiga.

O některých vašich realizovaných projektech jste se již zmínila, ale můžete přehled vašich projektů či zákazníků ještě rozšířit?

V tuto chvíli tvoří portfolio našich klientů 48 chytrých měst v celé Evropě a 10 specifických byznysových projektů. HOPU se v současné době zaměřuje na vývoj řešení pro města Aarhus, Hamburk, irský Galway, baskické Bilbao, španělskou Cartagenu a Ceutí, britský Bristol a Londýn, argentinskou Córdobu a také pro Mexico City.

Do budoucna hodláme růst především v oblasti datové analýzy a umělé inteligence. S využitím našich kompetencí chceme vytvořit datové modely, které městům pomohou lépe poznat, jak zlepšit městské prostředí tak, aby bylo udržitelnější.

Produkce řady automobilek bude letos nižší, než se předpokládalo. Jedním z hlavních viníků tohoto nepříznivého vývoje jsou polovodiče, resp. jejich nedostatek, který se navíc stále prohlubuje. Na začátku letošního roku analytici předpovídali, že v důsledku nedostatku polovodičů se letos vyrobí o 1,5 milionu vozidel méně. Do dubna se toto číslo vyšplhalo na více než 2,7 milionu a v květnu to již bylo více než 4,1 milionu. Nedostatek polovodičů podtrhl nejen křehkost dodavatelských řetězců v automobilovém průmyslu, ale také upozornil na závislost automobilek na desítkách malých a skrytých počítačů, které dnešní vozy obsahují.

„Žádný jiný průmysl neprochází tak rychlými technologickými změnami jako automobilový,“ řekl Zoran Filipi, vedoucí oddělení automobilového inženýrství Mezinárodního centra automobilového výzkumu při Clemson University. „Je to dáno potřebou řešit hrozbu stále přísnějších předpisů týkajících se emisí CO2 a současně udržovat krok s vývojem automatizace a tzv. infotainmentu a plnit tak očekávání zákazníků ohledně výkonu, pohodlí a služeb,“ vysvětlil. V nadcházejících letech proto můžeme očekávat, že tento trend ještě zesílí s tím, jak stále více automobilek bude ustupovat od spalovacích motorů a přecházet k elektromobilitě a také k autonomním vozidlům.

Důraz na bezpečnost neustále roste

„Kdysi byl software jen jednou ze součástí auta. Dnes určuje hodnotu celého automobilu,“ poznamenává Manfred Broy, emeritní profesor informatiky na Technické univerzitě v Mnichově a přední odborník na automobilový software. Podle něj to, zda vůz bude úspěšný, závisí na jeho softwaru mnohem více než na jeho mechanickém provedení. „Téměř všechny inovace vozidel se v současnosti také pojí se softwarem,“ upozorňuje profesor Broy.

Zhruba před deseti lety obsahovaly vozy prémiových kategorií kolem 100 mikroprocesorových řídicích jednotek, jejichž celková délka kódů se pohybovala kolem 100 milionů řádků. Dnes mohou vozy nejvyšších tříd, vybavené špičkovými technologiemi, jako jsou asistenční systémy typu ADAS, obsahovat i 150 řídicích jednotek. Počtu 100 řídicích jednotek se přibližuje i řada vozidel nižších tříd, protože funkce, které byly kdysi považovány za vysoce nadstandardní, například adaptivní tempomat nebo asistenční brzdné systémy, se posunuly do oblasti standardního vybavení.

Stále přitom přibývají nové a nové bezpečnostní funkce, které rovněž vyžadují pokročilé řídicí technologie, nemluvě o trvale se zpřísňujících emisních limitech, které mohou vozidla splňovat pouze s pomocí sofistikované elektroniky a softwaru. Vzpomeňme v této souvislosti na aféru Dieselgate. Za jejím propuknutím stál fakt, že německá automobilka Volkswagen vybavila své automobily s dieselovými motory TDI softwarem, který rozpoznával, že motor pracuje v režimu odpovídajícím požadavkům laboratorních testů výfukových plynů, a změnou nastavení motoru dočasně snižoval množství vznikajících oxidů dusíku, aby její vozy splnily zákonný limit.

Poradenská společnost Deloitte odhaduje, že od roku 2017 lze přibližně 40 % nákladů na pořízení nového vozu přičíst elektronickým systémům fungujícím na bázi polovodičů, což je vzhledem k roku 2007 zdvojnásobení nákladů. (Před 50 lety to bylo pouhých 5 % z celkové ceny.) Do roku 2030 se tento podíl pravděpodobně vyšplhá až na polovinu celkových pořizovacích nákladů. Pokud vezmeme v úvahu jen samotné polovodiče, pak podle Deloitte jich má dnes každé nové auto v sobě v průměru za zhruba 600 amerických dolarů.

„Roste především množství softwaru napsaného za účelem detekce nesprávného chování vozidla a zajištění jeho bezpečnosti,“ říká Nico Hartmann ze společnosti ZF se sídlem v německém Friedrichshafenu, která je jedním největších světových dodavatelů automobilových komponentů. Jestliže k těmto účelům byla zhruba před deseti lety určena asi třetina softwaru, dnes je to podle Hartmanna často více než polovina.

Každý vůz unikátem

Softwarovou variabilitu, která znamená, že software v podstatě z každého jednotlivého vozidla činí unikát, dokládá například luxusní model SUV XC90 společnosti Volvo. Ten obsahuje přibližně 110 elektronických řídicích jednotek, přičemž jejich konkrétní sestava závisí na několika faktorech. Volvo totiž stejně jako všechny ostatní automobilky nabízí každý svůj model v různých variantách v závislosti na tom, pro který segment trhu je určen. Každý vůz totiž musí splňovat nejen regulační předpisy daného regionu, ale každý kupující má mít možnost vybrat si z více variant: ať již jde o funkce motoru, nebo o funkce vnitřního vybavení. Právě to, jaká konfigurace standardního, volitelného a zákonem požadovaného vybavení je zvolena, určuje přesný počet a typy řídicích jednotek, jejich softwaru a související elektroniky, které bude vozidlo obsahovat. Klíčové je samozřejmě to, aby jejich spolupráce byla zcela plynulá a harmonická.

Deloitte odhaduje, že nejméně 40 % rozpočtu na vývoj vozidla, od úplného počátku až do začátku výroby, plyne na systémovou integraci, testování, ověřování a validaci. Mít plně pod kontrolou veškerou elektroniku a software v každém jednotlivém vozidle je tedy poměrně obtížný úkol, který často vyvolává napětí mezi marketingovými odděleními automobilek, která se snaží vycházet zákazníkům co nejvíce vstříc a nabízet tedy co nejširší paletu variant, a mezi vývojáři a konstruktéry, kteří požadují na základě dobré obeznámenosti se složitostí realizace redukci této diverzity. Není proto překvapením, že efektivní správa této výrobní komplexnosti je v automobilovém průmyslu významným problémem, který v dohledné době jistě nezmizí.

Miliarda testů

Nejde samozřejmě pouze o software, ale i o fyzickou architekturu součástek, která s ním souvisí. Mnoho řídicích jednotek je spojeno s nějakými senzory nebo akčními členy, se kterými interagují, například v brzdových systémech nebo při monitoringu motoru. Kabelový svazek tak může obsahovat i více než 1 500 drátů o celkové délce až 5 000 metrů a o hmotnosti kolem 70 kg. Snižování hmotnosti a složitosti těchto kabelových svazků se proto stalo jedním z hlavních cílů automobilek.

I přes značnou snahu automobilek se přesto ne vždy podaří důkladně otestovat všechny možné kombinace sestav řídicích jednotek před zahájením výroby. Zatímco bezpečnostní prvky vozidla bývají většinou pevně dány, konečná podoba celé sestavy řídicích jednotek se zpravidla odvíjí od toho, jak vysoké požadavky na komfort vznese zákazník. V některých případech tak vozidlo, které sjíždí z výrobní linky, je také prvním vozidlem v dané softwarové konfiguraci.

Některé automobilky tak musejí řešit i statisíce potenciálních kombinací pro každý jednotlivý model. Máte-li pak důkladně vyzkoušet každou jednotlivou kombinaci elektroniky, znamená to otestovat až miliardu jejích unikátních konfigurací. Na druhou stranu celou řadu těchto konfigurací lze dnes řešit již během vývoje, tedy ještě před fyzickou částí výroby, počítačovými simulacemi.

Situaci ale komplikuje fakt, že téměř veškerý vývoj řídicích jednotek a příslušného softwaru zajišťují externí dodavatelé, kteří často nemají přehled o tom, jak má fungovat celá sestava, takže můžou nastat problémy se vzájemnou kompatibilitou. Jak málo softwaru automobilky vyvíjejí samy, dokládá nedávný výrok Herberta Diesse, předchozího generálního ředitele koncernu Volkswagen a současného předsedy jeho představenstva, v němž připustil, že jen asi 10 % softwaru pochází přímo od Volkswagenu. Zbývajících 90 % zajišťují desítky externích dodavatelů.

Komplikace, které tím mohou vzniknout, potvrzuje průzkum mezi dodavatelskými firmami automobilek, které odpovídaly na otázku, jak těžké je zjistit, zda změna v softwaru jedné řídicí jednotky ovlivní funkci jiné. Potíže připustilo více než 90 % z nich, z toho 37 % dotázaných firem uvedlo, že je to obtížné, 31 % odpovědělo, že je to velmi obtížné, podle 7 % je to téměř nemožné a podle 16 % to není možné vůbec. Dodejme, že podobné to je i z uživatelského hlediska: 83 % řidičů tvrdí, že nakonfigurovat si správně nový vůz je pro ně až příliš složité. To jsou bezpochyby znepokojující údaje.

Automobilky se vedle všech výše zmíněných problémů se softwarem musejí navíc připravit na to, že budou čelit stále sílící hrozbě záměrného vnějšího, hackerského útoku na software vozidla. Tato problematika se v současné době již řeší na mezinárodní úrovni, což dokládá například usnesení OSN o regulaci kybernetické bezpečnosti vozidel, některé prognózy jsou však spíše skeptické. Například poradenská společnosti McKinsey varuje, že složitost automobilového softwaru rychle přerůstá možnosti dále jej efektivně rozvíjet a udržovat. Složitost tohoto softwaru totiž za poslední desetiletí vzrostla čtyřikrát, ale produktivita firem, které jej automobilkám dodávají, se za stejnou dobu téměř nezvýšila. V příštím desetiletí se přitom tato složitost pravděpodobně opět několikanásobně zvýší. Výrobci automobilů i jejich dodavatelé se proto budou muset velmi usilovně snažit, aby tuto mezeru mezi vývojem a produktivitou co nejdříve uzavřeli.      

Transformace energetiky směrem k trvalé udržitelnosti je pro energetickou infrastrukturu, či spíše pro ty, kteří ji vytvářejí a spravují, velkou výzvou. Vítr a slunce jsou, jak známo, velmi kolísavé zdroje energie a složitost a propojenost energetické infrastruktury se neustále zvyšuje. Zároveň vzrůstá i význam kybernetické bezpečnosti, protože stále více komponentů této infrastruktury je digitálně propojených, a tím i zranitelných. Tyto skutečnosti dělají provozovatelům přenosových soustav spoustu starostí a problémů. Někteří z velkých hráčů na poli energetiky v nedávné době přišli s konceptem, který by měl řadu těchto problémů odstranit. Tento koncept se nazývá internet energie (Internet of Energy – IoE) a v mnohém navazuje na již dříve vytvořené technologické koncepty internet věcí (Internet of Things – IoT), průmyslový internet věcí (Industrial Internet of Things – IIoT) a Průmysl 4.0 (Industry 4.0).

Hlavním cílem IoE je stručně řečeno to, aby se s pomocí již poměrně zavedené technologie IoT vytvořily monitorovací sítě čidel, nad kterými může běžet řada smart grid aplikací. Ty by pak umožňovaly například podrobné monitorování aktuálního stavu sítě, řízení spotřeby elektřiny, správu distribuovaných úložišť nebo začleňování obnovitelných zdrojů do elektrické sítě.

Nový typ sítě

První řešení pro IoE se začala objevovat zhruba před čtyřmi roky. Do této doby se také datuje řešení od společnosti GE Power – platforma Predix. Vzhledem k tomu, že GE je v oblasti energetiky opravdu velkým hráčem, není divu, že jeho projekt kromě specialistů rychle vzbudil značnou pozornost i u široké veřejnosti. O co v tomto projektu šlo? V zásadě o využití technologie IoT, strojového učení a big data k budování nového typu sítě, který umožní nahradit tradiční model dodávek elektrické energie. Pokud by se totiž podařilo každému elektronu přiřadit jeden informační bit, bylo by pak možné tato data, resp. elektrony detailně sledovat a usměrňovat podle momentální potřeby.

GE k tomuto účelu již vytvořil i speciální operační systém – platformu Predix, která podporuje celý proces datové analýzy od cloudového úložiště dat až po „edge“ řešení. To jsou taková řešení, v jejichž rámci výpočetní algoritmy běží na surových datech nebo strojových datech co nejblíže místu, kde byla sebrána. Výhodou tohoto řešení je, že se tak výrazně zvyšuje rychlost zpracování a eliminuje šum. Data se přitom nemusejí sbírat pouze na vlastních zařízeních GE, ale mohou pocházet i od jiných dodavatelů.

Součástí platformy Predix jsou také pokročilé funkce založené na strojovém učení, například prediktivní údržba nebo optimalizace výkonu sítě. Výsledky, kterých se podařilo v praxi dosáhnout, jsou velmi výmluvné: neplánované prostoje se podařilo snížit o 5 %, počet falešných poplachů poklesl o 75 % a náklady na provoz a údržbu byly nižší o 25 %.

Digitální transformátor jako změna paradigmatu

Do rozvíjení konceptu internet energie se zapojil i další průmyslový gigant – německá společnost Siemens. Ta v roce 2018 představila Sensformer – první digitální transformátor na světě, a tím zahájila cosi jako změnu paradigmatu.

Sensformer je zařízení, které obsahuje čidla, jež trvale sledují nejdůležitější provozní parametry, jako je hladina oleje, teplota, napětí transformátoru nebo aktuální souřadnice GPS. Komunikace probíhá přes GSM nebo přes ethernet, není tedy potřeba žádná sekundární IT infrastruktura.

Siemens rozšířil vlastnosti chytrých transformátorů a rozvaděčů o vrstvu edge computingu (foto: Siemens)

Každý takovýto transformátor má také své digitální dvojče, které v reálném čase simuluje chování svého fyzického předobrazu. Díky tomu lze předvídat a rychle reagovat na chvilková přetížení a nezkracovat tím životnost transformátoru. Stejně tak účinně lze kontrolovat i provozní teplotu, předcházet poruchám a mít trvalý přehled o zbytkové životnosti zařízení.

V roce 2019 přišel Siemens s chytrým rozvaděčem Sensgear. Zabudovaná čidla tohoto zařízení podobně jako v případě Sensformeru trvale monitorují vnější parametry, jako je počasí v daném místě a souřadnice GPS, i parametry vnitřní, jako je hustota plynu, teplota nebo vypnutí obvodu.

Přeřadit na vyšší rychlost

V letošním roce Siemens povýšil svou rodinu chytrých rozvaděčů a transformátorů tím, že je vybavil tzv. edge computingem. Zařízení Edgeformer a Edgegear, která Siemens představil na průmyslovém veletrhu Hannover Messe 2021, jsou první vysokonapěťová zařízení na světě, která mají tuto funkci.

Dosud většina digitálních řešení pro zařízení rozvoden využívala jen připojení ke cloudu. Zapojení edge computingu ale nabízí možnost připojení zařízení přímo v rozvodně. Výhody cloudových řešení, jako je třeba analýza dat nebo centralizovaná správa zařízení a aplikací, lze využívat nadále, ale díky edge computingu je zařízení “upgradováno” na vyšší výpočetní rychlosti, které umožňují rychlejší rozhodování, ukládání a zpracování dat přímo na místě.

V případě edge computingu jsou data v rozvodně uložena offline, aniž by byla ohrožena bezproblémová, bezpečná a snadná integrace do stávajícího IT prostředí zákazníků. Výsledkem je systém s vysokou mírou kybernetické bezpečnosti. Do budoucna se plánuje doplnění edge transformátorů a edge rozváděčů o aplikace pro datové analýzy a asset management.

„Internet energie nabízí obrovské příležitosti k tomu, jak úspěšně zvládnout výzvy stále složitější energetiky. V roce 2018 jsme uvedli na trh první digitální transformátor na světě, čímž se nám v oblasti distribuce energie podařilo změnit paradigma. Uvedení našich produktů Edge znamená další technologický průlom, který povede k efektivnějšímu přenosu elektřiny,“ zhodnotila prezentaci společnosti Siemens na hannoverském veletrhu Beatrix Natter, výkonná viceprezidentka společnosti Siemens Energy.

Podle aktuálních statistik se budovy na celém světě na spotřebě energií podílejí více než 40 %. Z tohoto množství se pak přes 50 % vyplýtvá, protože budovy jsou řízeny neefektivně. Snížit jejich energetickou náročnost, resp. zvýšit energetikou účinnost je tedy jedním z velkých úkolů dnešní doby. Lidé navíc tráví uvnitř budov velkou část života, a proto je velmi důležité vytvářet pro ně v budovách komfortní prostředí. K tomu, aby bylo možné dosáhnout vysoké míry energetické efektivity a současně i uživatelského komfortu, je nezbytně nutné celou budovu integrálně řídit.

Tento tlak na majitele či provozovatele budov je ještě umocněn tím, že ve stále více digitalizovaném světě rostou očekávání, že budovy se budou tomuto vývoji průběžné přizpůsobovat. Je proto zřejmé, že na neustále se měnící požadavky může reagovat adekvátně pouze vysoce flexibilní a škálovatelný systém automatizace budov, označovaný též BMS (Building Management System). Cesta k němu však nebyla úplně přímočará a trvala několik desetiletí, možná spíše staletí.

Hledání standardu

První skutečné řídicí systémy budov fungovaly na pneumatické bázi a řídila se jimi vzduchotechnika, tedy to, co je dnes součástí systémů označovaných HVAC (heating, ventilation and air conditioning). V západním světě, zejména pak v metropolitních oblastech, se začaly výrazněji šířit v 60. letech minulého století.

Osmdesátá léta se nesla ve znamení nástupu analogových elektronických řídicích zařízení. Ta oproti svým pneumatickým předchůdcům poskytovala rychlejší odezvu a vyšší přesnost. O skutečné automatizaci řízení však můžeme hovořit až v 90. letech, kdy se na scéně objevily první digitální systémy označované jako Direct Digital Control (DDC). V polovině 90. let také začalo docházet k připojování řídicích systémů k rychle expandujícímu internetu. Protože však pro digitální komunikaci tohoto typu tehdy ještě neexistovaly žádné standardy, vytvořili si výrobci své vlastní komunikační metody. Automatizační systémy tak postrádaly interoperabilitu a nedokázaly propojovat produkty od různých výrobců. To pak často znamenalo, že budova byla de facto daným technologickým dodavatelem „uzamčena“.

Na konci 90. let, a zejména pak v prvním desetiletí nového milénia, proto sílily snahy o standardizaci otevřených komunikačních systémů. Americký Svaz inženýrů pro vytápění, chlazení a klimatizaci (ASHRAE) tehdy vyvinul komunikační protokol BACnet, který se celosvětově prosadil a stal průmyslovým otevřeným standardem. Na vývoji tohoto protokolu se ale začalo pracovat již od roku 1987, kdy se v americkém Nashvillu konalo první zasedání výboru ASHRAE sestaveného speciálně pro přípravu BACnet. V americkém standardizačním systému ANSI/ASHRAE je standardem od roku 1995 (Standard 135), v ISO od roku 2003 (ISO 16484-5).

Pro vyšší bezpečnost

V současné době se pracuje na vývoji nového standardu BACnet Secure Connect (BACnet/SC), který by měl stávající BACnet/IP nahradit. Půjde o zabezpečenou, šifrovanou spojovou vrstvu, která je navržena tak, aby splňovala nároky na moderní komunikační platformu propojující automatizační a řídicí úroveň managementu budovy a současně vyhovovala i veškerým požadavkům na kybernetickou bezpečnost. Vývoj tohoto nového standardu si vynutila rostoucí potřeba používat standardizovaných a často již existujících síťových IP infrastruktur pro komunikaci přes BACnet. Nový protokol s možností šifrované komunikace by tedy měl být klíčovým bezpečnostním prvkem v síťových technologiích budov, resp. v rodícím se internetu věcí budov (Building Internet of Things – BIoT).

Vedle BACnet však v současné době existují i další velmi používané protokoly, například Modbus, LONTalk, M-Bus nebo EIB/KNX. Poslední z uvedených protokolů stojí na základech Evropské instalační sběrnice (European Installation Bus – EIB), která, jak název napovídá, již byla brána jako celoevropský standard. Vznikla z elektroinstalační sběrnice Instabus, vyvinuté firmou Siemens, a jejím prostřednictvím již mohla být bez problémů propojována zařízení různých výrobců. Následné vytvoření standardu KNX znamenalo, že se původně ryze evropská sběrnice EIB stala mezinárodně uznávanou technologií.

Řídit vše z jedné platformy

Vedle informačních technologií se však v poslední době výrazně proměnilo i stavebnictví. Po řadě let zateplování tak jsme dnes v situaci, že u domů s kvalitní a neprostupnou obálkou se poměrně výrazně mění koncept celé regulace. Přehřívání domů se stává větší výzvou než jeho vytápění, přičemž velmi výraznou roli v udržování příjemného vnitřního klimatu hrají kromě samotné technologie chlazení také venkovní žaluzie a další zastiňovací prvky. Naprostou nezbytností je pak instalace vzduchotechnických jednotek se zpětným získáváním tepla (rekuperací), které zajišťují energeticky efektivní provětrávání. Budovy také bývají stále častěji vybaveny fotovoltaickými elektrárnami.

Všechny tyto systémy, které samy o sobě bývají ve větších budovách velmi složité, je třeba patřičně sladit. A není to ladění nikterak jednoduché, vždyť ve hře může být i několik desítek tisíc proměnných. To je třeba případ nové budovy banky ČSOB v pražských Radlicích, jejímž „mozkem“ je řídicí systém Siemens Desigo CC. Ten ovládá kromě jiného například systémy tepelných čerpadel, všech oken, otvírek a vzduchotechniky či rekuperace tepla – dohromady pracuje se zhruba 90 000 proměnnými.

Využívání jedné řídicí platformy ke správě všech technologií v budově tak přináší její výrazné zjednodušení – jak v oblasti jednotlivých pracovních postupů, tak analýzy dat či optimalizace provozu celého objektu. Není nutné příliš zdůrazňovat, že díky jednotnému a unifikovanému přístupu ke všem technologiím je možné dosáhnout značných časových a finančních úspor.

Systémy řízení a automatizace budov zpravidla integrují tyto segmenty:  

Vytápění, větrání, chlazení – Primární regulace zdrojů tepla, zdrojů chladu a vzduchotechnických jednotek, pokojová (IRC) regulace. 

Osvětlení, stínění – Regulace osvětlení a stínění v jednotlivých místnostech (IRC).

Energetický management – Management výroby, ukládání, distribuce a spotřeby energie. Díky získaným datům, sledování trendů a pokročilým reportům lze optimalizovat procesy vyvažování spotřeby energie při zachování komfortu.

Bezpečnostní systémy – Součinnost dílčích bezpečnostních systémů, jako je detekce vniknutí, kontrola vstupu nebo videodohled.

Požární bezpečnost – Kombinace detekce požáru, vyhlašování poplachu, organizace evakuace, hašení a grafických nadstavbových systémů.

Klimatizace pro kuřata

Ponořme se však ještě jednou do historie, tentokrát ještě hlouběji, protože prvopočátky automatizace správy budov mají něco společného i s českými zeměmi. Za první historicky doložený pokus o mechanizaci řízení budovy se totiž považuje vynález primitivního rtuťového termostatu Cornelia Drebbela. Ten se ovšem zabýval také alchymií a v letech 1610–1612 pobýval na pozvání císaře Rudolfa II., známého podporovatele alchymistů, v Praze. Tento jinak v Londýně žijící Nizozemec vynalezl kolem roku 1600 regulační zařízení se zpětnou vazbou, které dokázalo udržovat konstantní teplotu v kuřecí líhni. Kromě toho Drebbel vyvinul také první klimatizační systém.

Dalším milníkem byl rok 1883, kdy Warren Seymour Johnson, učitel z amerického Milwaukee, vynalezl termostat, který již nesl určité rysy toho, co dnes označujeme za systém řízení budovy. Johnson byl frustrován z toho, že ve třídách nešlo regulovat výkyvy teploty. Vynalezl proto automatický vícezónový pneumatický řídicí systém, kterým problém vyřešil.

Systém obsahoval bimetalový termostat ke kontrole průchodu vzduchu tryskou, a tím řídil pilotní regulátor. Zesílený vzduchový signál z regulátoru následně ovládal parní nebo horkovodní ventil na tepelném výměníku nebo řídil klapku klimatizačního systému. Johnson si tento systém nechal v roce 1895 patentovat.

Jeho řešení se postupně rozšířilo a vedle škol našlo uplatnění i v kancelářských budovách, nemocnicích nebo hotelech. Zakázek začalo rychle přibývat a Johnson, aby je dokázal uspokojit, založil společnost Johnson Electric Service Company, z níž se posléze stal koncern Johnson Controls.

Novináři, bloggeři i influenceři vědí, že svému publiku se musí zavděčit. Platí to i o těch technologických – možná ještě ve větší míře než obvykle. Když tedy Apple v říjnu 2020 představoval novou generaci svých mobilních telefonů, iPhone 12, jako vždy se hledala jakákoliv zajímavost. V záplavě spekulací a (ne)zaručených úniků možná trochu zaniklo, že tentokrát bylo skutečně o čem psát. Apple je skutečně široce dostupný příklad technologie, kterou v příštích letech téměř určitě oceníme všichni.

Řeč je o jádru telefonů iPhone 12, čipu A14 Bionic. Tyto mobilní čipy a brzy po nich Applem představené čipy M1 pro počítače totiž využívají extrémně malých základních „dílů“: tranzistorů o tloušťce 5 nanometrů. Taková vrstva je tlustá přesně 25 atomů křemíku. A byť jde do značné míry o marketingový název, protože neexistuje jednotná norma a velmi záleží na jejich konstrukci, je celkem jasné, že nové čipy Applu jsou začátkem větší vlny.

Jak ukazuje test za testem, nové čipy nabízejí výkony minimálně srovnatelné s konkurencí, ale s výrazně nižší spotřebou energie. Menší rozměry tranzistorů znamenají totiž nejen to, že na stejný čip jich dostanete více – a tím pádem dostanete větší výkon – ale také to, že k provádění operací s nimi je zapotřebí méně elektřiny. Rozdíl je v řádu nízkých desítek procent podle toho, které čipy se konkrétně srovnávají a při jaké činnosti. Jako průměr se uvádí hodnota nárůstu výkonu o cca 15 procent při stejné spotřebě.

Čip M1 společnosti Apple (foto Apple)
Čip M1 společnosti Apple (foto Apple)

Jak se to povedlo

To, že se povedlo sestoupit do rozměrů, kde už záleží už téměř na každém atomu, není rozhodně zásluha pouze Applu. Klíčovým hráčem byla především společnost ASML, kterou už před pár lety znalci označovali za „nejdůležitější technologickou firmu, o níž jste nikdy neslyšeli“. ASML je nizozemská společnost, ve které postupně zakoupily podíl všechny velké firmy v oboru výroby čipů. Podíl v ní vlastní Intel, Samsung i tchajwanská TSMC (dodavatel čipů právě pro Apple, ale zdaleka nejen pro něj).

Společnost se od svého založení v polovině 80. let věnuje výhradně jednomu jedinému oboru: fotolitografii, tedy „kreslení světlem“. Právě tak se tisknou dnešní čipy. Proces zjednodušeně řečeno probíhá tak, že se na křemíkovou „oplatku“ (wafer) soustředěným ultrafialovým světlem vykreslí obvod, který chce vyrobit.

Pro větší rozměry se tento proces podařilo zvládnout téměř dokonale. Ale přechod na tranzistory s nejmenšími rozměry v řádech nanometrů se dlouho nedařil. Hlavní důvod je jednoduché pochopit: vlnová délka používaného UV světla už je výrazně větší než rozměr součástek, jež takto chcete vyrábět. Na litografii se dlouho používala osvědčená technologie s vlnovou délkou 193 nanometrů, ale ta i přes nesmírná vylepšení prostě přestávala stačit. Byť výrobci přišli na spoustu chytrých „triků“, jak limity této technologie posunout.

To byl jeden z hlavních důvodů jisté stagnace v růstu výkonu výpočetní techniky v posledních letech. Moorův zákon sice nepřestal platit úplně – výkon stále rostl – ale růst se zpomaloval. Už neplatilo, že počet tranzistorů v čipech (a tedy výkon) se zdvojnásobuje každých 18 měsíců. Perioda se postupně prodlužovala na více než dva a půl roku.

Pomalý nástup

ASML i další výrobci se tak věnovali vývoji nové technologie fotolitografie „extrémním“ UV zářením (zkráceně EUV). Při něm se používají vlnové délky zhruba od 30 do 1 nanometru. Výhledově je tak možné vyrábět tranzistory menší než 5 nm. Dnes se už poměrně konkrétně mluví o technologii 3 nm. Ještě relativně nedávno situace tak nadějně vůbec nevypadala.

Nasazení EUV v minulosti slibovali mnozí v dobách, kdy tranzistory byly mnohonásobně větší než dnes. S EUV se počítalo podle některých odhadů již pro 45nm proces, tedy zhruba před 15 lety. Nadšení však opadalo a řada velkých firem (svého času např. IBM) nad vývojem zlomila hůl. Ještě po roce 2010 se tak v odborných kruzích poměrně čile debatovalo o tom, zda EUV litografie vůbec někdy bude k dispozici.

Především právě z ASML ovšem začaly postupně přicházet nadějné zprávy. V roce 2015 společnost ve svých výhledech uvedla, že by do roku 2020 reálně mohla prodat několik desítek svých EUV zařízení. A zhruba od konce roku 2017 to skutečně dělá.

Že byl vývoj obtížný, to znalce nijak nepřekvapilo. Práce se zářením takových vlnových délek je extrémně náročná na přesnost. Výroba čipů i dnes probíhá ve vakuu, ovšem v případě EUV musí být vakuum skutečně velmi kvalitní.

Pohled do nitra jedné z výrobních platforem od ASML (foto ASML)
Pohled do nitra jedné z výrobních platforem od ASML (foto ASML)

K soustředění a odrážení vznikajícího světla se využívá zrcadel s přesností, kterou téměř žádné jiné aplikace nevyžadují. ASML nemluví úplně rádo o přesných parametrech, jeho PR oddělení si tak pomáhá příměrem. Pokud by se jedno ze zrcadel zvětšilo na velikost Německa (cca 360 tisíc km2), nejvyšší výčnělek na celé této obrovské ploše by měl měřit maximálně jeden milimetr.

Přesnost přitom není jediný požadavek. Dnes lze v laboratořích dosáhnout úžasných výsledků a pracovat s jednotlivými atomy. Ale ASML vyrábí průmyslová zařízení, která musí i s cenovkou cca 120 milionů dolarů (3 mld. Kč) za kus svým majitelům vydělávat. Na přesnost náročné procesy tak v něm musí probíhat neustále a s vysokou mírou spolehlivosti a co nejmenšími odstávkami.

UV záření požadovaných délek vzniká ve stroji z plazmatu. To se vytváří z kapek rozžhaveného cínu, které silný laser změní v zářící obláček plynu. V jednom zařízení, jež vidíte na obrázku, probíhá tento proces podle ASML 50tisíckrát za sekundu.

Vzniklé světlo zachytávají zmíněná zrcadla a soustředí ho na připravenou křemíkovou plochu přes tzv. „masku“, vlastně inverzní obraz vznikajícího obvodu. Jednalo se de facto o jednoduchou konstrukci: neprůhlednou vrstvu chromu v požadovaném tvaru na skleněné podložce. Ale to pro EUV litografii použít nelze. Masky pro EUV se skládají z několika desítek vrstev křemíku a molybdenu, kterou jsou ještě překryty vrstvou sloučeniny bohaté na ruthenium a další vrstvou tantalu. Maska je tak složitá, že jedním z velkých problémů nové technologie byla její příprava, přesněji řečeno velmi vysoký podíl zmetků.

Drahota, ta drahota

Skutečnost, že novou, výrazně vylepšenou generaci čipů představil právě Apple, je ilustrativní v ještě jednom důležitém ohledu – a ten se týká ceny. EUV fotolitografie je nejen náročná, ale celkem pochopitelně také ve všech ohledech drahá.

ASML do jejího vývoje investovala doslova desetiletí práce a značné prostředky. A také počet firem, které ji mohou zakomponovat do své produkce, je velmi, velmi omezený. Na celém světě jsou v tuto chvíli pouze tři firmy, které o takovém kroku uvažují. Ještě v roce 2010 bylo pět společností, které měly ambice vyrábět novou generaci čipů. Na přelomu 20. a 21. století bylo výrobců zhruba 25. Je to naprosto pochopitelné, protože problémy, které před výrobci stojí, jsou čím dál obtížnější.

Zhruba dva roky starý odhad ekonomů z MIT uvádí, že stejné zvýšení výkonu dnes vyžaduje 13krát více prostředků než v roce 1971. Tedy pár let poté, co Gordon Moore přišel se svou slavnou předpovědí. Koncentrace do rukou několika velikých společností je tedy přirozeným důsledkem obtížnosti problému, nese v sobě ovšem reálné riziko dalšího zpomalení. Zpomalení, které by bylo dáno ani ne tak technologickými, ale ekonomickými faktory.

Macbook s procesorem M1 (kredit Apple)
Macbook s procesorem M1 (kredit Apple)

Nejde o žádné plané varování, něco podobného jsme mohli sledovat i v posledních letech. Před skutečně masovým nástupem mobilních telefonů s odlišnou čipovou architekturou vládl výrobě čipů jednoznačně americký Intel. Měl de facto monopol především na trhu s obchodními počítači. Jedinou konkurencí mu byla společnost AMD, jejíž procesory ale svými výkony za Intelem zřetelně zaostávaly.

Intel ovšem usnul na vavřínech. Od roku 2010 se právě kvůli nedostatku inovací především v segmentu procesorů, kterému americká firma roky vládla, nárůst výkonu hlavně u tradičních PC výrazně zpomalil. Nikdo samozřejmě nemůže stoprocentně dokázat, že to bylo v důsledku monopolizace trhu, ale tato hypotéza se jasně nabízí.

Intel se v každém případě nechal dohnat, a nakonec i předehnat konkurencí. Dnes se zpožděním připravuje rozjezd výroby tranzistorů s rozměry v řádech jednotek nanometrů. Procesory nedávno věčně druhého AMD ho však válcují ve všech testech. A rozdíl je ještě o něco málo větší při srovnání s Applem, který představením již zmíněného čipu M1 jasně ukončuje dlouholeté partnerství se svým bývalým exkluzivním dodavatelem. Monopoly svědčí zisku, pokroku méně.

Ve své biografii Steve Jobs vzpomínal, že veřejnost a odborníci nedostatečně oceňují jeden jeho příspěvek k vývoji počítačové techniky: „Spínaný přívod byl u Applu II stejně revoluční jako logická obvodová deska.“ prohlásil známý podnikatel.

Ano, „trafo” – počítače Apple II bylo podle Jobse revoluční. Proč si to myslel a má pravdu?

Je to kvůli Teslovi

Na začátek se vraťme hluboko do historie, až do 19. století. Když na jeho konci vyhrál „válku proudů“, někdy trochu zjednodušeně hodnocenou jako spor mezi Teslou a Edisonem, přesvědčivě proud střídavý. Dokázal při tehdejším stavu techniky totiž přenášet na větší vzdálenosti s výrazně menšími ztrátami. Celá řada elektrických přístrojů, ovšem funguje na proud stejnosměrný. Všechna zařízení, včetně prvních radiopřijímačů, tak musela být vybavena napájecím zdrojem, který převádí střídavý proud ze sítě na proud stejnosměrný.

Takový zdroj lze postavit různě, existují ale dva základní typy: lineární a spínané zdroje.
Lineární zdroje jsou v podstatě stejně staré jako masově rozšířená elektrotechnika. Jde v podstatě o velmi jednoduchá zařízení sestávající z transformátoru a usměrňovače proudu. Aby zdroj nedodával příliš vysoké napětí, nadbytečně převedený proud se mění na teplo. Zatímco transformace a usměrnění proudu probíhají velmi účinně, při stabilizaci watty doslova létají komínem v podobě odpadního tepla.

Dobová reklama na Apple II (kredit Apple)
Dobová reklama na Apple II (kredit Apple)

Lineární zdroj je tedy jednoduchý, ale nehospodárný – ztráty se pohybují mezi 30 a 60 procenty podle typu a využití. Na druhou stranu je výstup z takového zdroje velmi přesný a stabilní. Používají používají se tak stále například u zařízení pro přehrávání zvuku.

Spínané zdroje jsou z technického hlediska podstatně složitější. Obsahují zpětnovazební prvek. Zařízení pozná, že už „naměnilo“ proudu dost (na výstupu je tedy dostatečné napětí) a přestane na chvíli pracovat. „Vypnutý“ spínaný zdroj neodebírá žádnou elektřinu, a tedy šetří.

Čistě teoreticky by tedy takové zařízení mohlo pracovat zcela bez ztrát, ve skutečnosti už dnes účinnost často přesahuje 95 procent. U levných zařízení to může být podstatně méně, jak lze často zjistit jednoduše dotykem.

V dnešních technologiích je celý proces velmi rychlý, může docházet až k milionu sepnutí za vteřinu. Pracuje se tak s poměrně malými „porcemi“ energie, a tak všechny použité díly mohou být menší, lehčí a mají menší tepelné ztráty než robustnější díly lineárních zdrojů, které jsou v nepřetržité zátěži.

Chytřejší spínané zdroje si ovšem na rozdíl od jejich lineárních předchůdců na koleně nevyrobíte. Jejich konstrukce je výrazně složitější, především musíte mít k dispozici náležité konstrukční díly, tranzistory. Ty ale dnes patří ke standardním součástkám, takže výroba spínaných zdrojů je i přes vyšší náklady levnější než u lineárních zdrojů, a to především díky úsporám na materiálu.

Apple nebyl první

Spínané zdroje jsou tedy skutečně klíčovou technologií, která pomáhá dělat dnešní elektroniku tak malou a efektivní. Ale Jobs své zásluhy v tomto smyslu poněkud přeceňuje.

Spínané zdroje potřebují polovodiče. První použitelný tranzistor byl zkonstruován v roce 1947, spínané zdroje se v omezené míře používaly již od 50. let. Spínaný zdroj obsahoval i v roce 1958 uvedený sálový elektronkový počítač IBM 704, vůbec první počítač, který se vyráběl ve větší sérii.

NASA je použila například na satelitu Telstar, vypuštěném v roce 1962. Výhody lepších výkonů – vyšší účinnosti a nižší hmotnosti – v tomto odvětví převážily nad tehdy ještě stále vysokou cenou těchto zdrojů. Jak se ovšem výkony tranzistorů zvyšovaly rychlostí a jejich cena klesala, technologie úspěšně sestoupila na Zemi. Zhruba od konce 60. let přecházejí na spínané výrobci velkých počítačů: IBM, Honeywell, Hewlett-Packard, Texas Instruments.

Apple II
Počítač Apple II (volné dílo)

Ano, v osobních počítačích se spínané zdroje objevily v 70. letech, včetně Applu II, zdomácněly v nich ale až díky prvnímu „pécéčku“, počítači IBM PC/AT (AT znamenalo „advanced technology“) z roku 1984. Právě tento počítač nastavil standardy, které se v IT světě v mnoha ohledech dodnes dodržují – včetně napájení. Apple II v sobě nesl na svou dobu skutečně zajímavý zdroj. Jeho autor Rod Holt si některá řešení nechal patentovat, patenty se ovšem nedočkaly většího rozšíření a dnes zůstávají prakticky nevyužity.

Samozřejmě ne bezvýhradně, pokrok se přece jen nezastavil a spínané zdroje se vyvíjejí dál. Zatím spíše ty dražší používají místo křemíku nitrid galia (GaN), materiál, který pomohl rozjet vlnu LED osvětlení. Díky němu by tranzistory mohly dál snižovat ztráty ve spínaných zdrojích a jejich účinnost posunout snad až na 99 procent.

Sama přeměna elektřiny se navíc digitalizuje. Jinak řečeno, samotné zdroje mohou být programovatelné. Ve svém počítači nic takového zatím nenajdete, ale firmy jako Google a Facebook podobné systémy pro své servery používají. Je nejspíš jen otázkou času, kdy „sestoupí“ i do osobní elektroniky.

Načíst další