Join our exclusive webinar - "Unlocking Urban Mobility: The Mobility as a Service (MaaS) Revolution" on September 20, 2023! Register now.

Shifting the Burden

At Ness Digital Engineering, we partner with a wide range of organizations to deliver software as a product over many releases, spanning a decade in some cases. As software eats the world, organizations realize it has to be treated as a product and leverage companies such as ours to improve release cadence, test coverage and generally adopt software engineering best practices.

The initial situation when the relationship debuts varies wildly. Some have a clear backlog of tasks to be addressed while their teams focus on advanced aspects of their product for example. In that case, we would leverage a thorough knowledge transfer to get our teams quickly up and running alongside their engineers. Other cases focus on the introduction of practices to improve release cadence. This includes test automation. One mental model that helps assess the situation is Mike Cohn’s test pyramid.

The pyramid model for test automation (Mike Cohn) recommends adoption of three layers of tests for the right automation mix. Unit tests at the base of the pyramid, take up most of the automation testing work, followed by the middle layer consisting of integration or service level tests. The uppermost layer is the thinnest comprising of GUI tests. All of these are targets for automation. Cohn’s model is ideal but still helpful as a shared model of understanding. The recent advances in container technology have significantly lowered the cost of setting up and running integration tests. This is reflected by alternative shapes proposed e.g. by Simon Brown or Spotify’s Honeycomb which are more generous in proportion on integration tests relative to the base.

What we see in practice discussing with a wide range of enterprises, is that these idealized proportions are not known or not clearly defined. Introduction of test automation is challenging and some organizations did not resist the temptation of introducing end-to-end GUI automation testing at the detriment of the other test types. While authors may disagree on the relative proportions of the bottom two groups, the upper category is preferably kept smallest.

Systemic view
When facing a situation of too many automated GUI tests, which become hard to manage, are brittle and ultimately do not contribute to fast release cycles, we can be reminded of a known pattern in systems thinking: Shifting the Burden (Peter Senghe).

We have one problem (too many GUI tests), two approaches (create unit and/or microservice integration tests OR create GUI tests at the bottom, respectively top of the pyramid), and one adverse side-effect leading to a tipped test pyramid. This archetype identified in Senghe’s book, “The Fifth Discipline” combines two balancing loops and one reinforcing loop as depicted below. These loops conspire to move the system in the wrong direction.

The mandate of introducing practices to straighten test type proportions for automation requires a structured and methodical approach. In addition, such endeavors only succeed with a management mandate and understanding that changes become visible after long periods for reasons shown next.

Assessment of the current state

In this first step, we consider various aspects such as the number of tests that exist in each layer, their stability and reliability, coverage for critical scenarios in the acceptance layer, and what tooling and organizational support exists for the system until sufficient tests are created in order to assess current state.

Definition of a test strategy

Here, our experts consider the technical and organizational needs, the different types of tests needed and their mapping to the continuous delivery pipeline stages. They assess the tools and framework to adopt, as well as ways to empower teams (incl. product owners) in ways to configure the test mix and frequency of test execution at various stages in the pipeline.

CI/CD strategy

The focus lies on identification of tools and infrastructure supporting continuous integration (CI) and continuous delivery (CD) pipelines. These will need to support a requisite frequency for the execution of different tests. For instance, unit tests can run with every build, integration and acceptance tests at different, regular intervals.

Systematic test base increase

The core of the work then consists in increasing the test base while taking changes to legacy code as well as new feature development into consideration. Teams need to discuss how and what they would cover with each new feature coming into their sprints. Coverage for legacy code will take longer as the test base builds up gradually, as and when the code is modified or refactored. Adoption of Test-Driven Development (TDD) will be worthwhile to consider here.

Test auditing

Regular assessments of aspects related to test duplication, code coverage and deprecation of unwanted tests will prevent test rot revert to the initial state of pyramid. The frequency and scope for the reviews is defined and adapted for every client context.

Culture shift

Scripting tests needs to be treated as coding functionality and requires a culture and mindset aligned to this approach. Having the right team that works alongside developers to automate tests is key to achieving success. Mentoring and thought leadership, with management buy-in, are key to distil this mindset and shape the culture of the organization.

Support from management is essential. The initial period likely produces some slowdown in the velocity of deliverables, possibly coupled with investment needs in tooling. Once the slump passed, we see consistent results. Automation and the right balance in test types yields higher test coverage, lower maintenance costs, shorter feedback loops, improved pipelines, faster release cycles and the entire teams overall commitment to continuous improvements.

Lessons from the Apollo Moon Landing

Fifty years ago, mankind took a giant leap as Neil Armstrong became the first man to walk on the moon. Our CTO, Moshe Kranc, was a teenager at that time, but he later had the privilege to work with some of the software pioneers whose work enabled the landing. In an article for The Education Post, Moshe shares insights about the lessons learned from the Apollo moon landing.

Click here to read the full article

FaceApp a stav strojového učení

Stáhli jste si FaceApp? Víte, na jakém principu funguje? O strojovém učení i riziku výměny soukromí za bezplatnou službu si přečtěte v našem komentáři.

Pokud jste nestrávili poslední měsíc na opuštěném ostrově, zaplavily Vás na sociálních sítích zábavné obrázky toho, jak by Vaši přátelé vypadali v osmdesáti letech nebo jako příslušníci opačného pohlaví, a to vše vytvořené virální aplikací FaceApp.

Možná jste si aplikaci stáhli a sami vyzkoušeli. Pojďme se na tuto aplikaci podívat blíže z hlediska jejího fungování. Poskytuje totiž zajímavou možnost k prozkoumání stavu strojového učení v roce 2019 v souvislosti s tématy, jakými jsou technologie, viralita a soukromí.

Technologie

V terminologii strojového učení je stroj, který vytváří obrázky, např. lidských obličejů, neuronovou sítí nazývanou generátor. Generátor přijímá šumový vektor, tj. seznam náhodných čísel, a používá jej ke generování obrázku. Šumový vektor zajišťuje rozmanitost, jinak by stroj pokaždé vygeneroval stejný obličej.

Trénování generátoru k vytváření tváří, které vypadají realisticky, by vyžadovalo miliony příkladů trénovacích dat, kdy generátor vygeneruje obrázek, člověk zhodnotí výsledky tím, že určí, které části obrázku nejsou realistické, a generátor poté upraví svůj model založený na lidské zpětné vazbě a zkusí to znovu.

V roce 2014 přišel Ian Goodfellow s nápadem vložit proti sobě dvě neuronové sítě místo vyžadování lidského zhodnocení. Takový stroj nazýváme generativní kompetitivní síť (Generative Adversarial Network – GAN), kdy jedna neuronová síť funguje jako tvořitel pokoušející se vygenerovat realistické obrázky, zatímco druhá neuronová síť funguje jako umělecký kritik poskytující zpětnou vazbu o tom, které části generovaného obrázku obsahují vady. Generativní síť nakonec vytvoří obrázek, který projde porovnáním s kompetitivní sítí, tj. vytvoří se realistický obrázek.

Podmíněná síť GAN rozšiřuje tento koncept přidáním kategorického vstupu do GAN; např. generovat pouze starší obličeje. To vyžaduje trénovací data, která jsou označena věkem, takže GAN zná charakteristiky staršího obličeje. Generátor používá tato tréninková data ke generování obličejů různých věkových kategorií a diskriminátor používá tréninková data k posouzení, zda je obličej dostatečně starý.

Podmíněná síť GAN dokáže generovat realistické tváře určité kategorie, ale FaceApp dělá něco víc – generuje roztříděné tváře, které vypadají jako konkrétní osoba. To vyžaduje podmínku GAN pro zachování identity, kde musí generativní GAN začínat nikoli náhodným šumovým vektorem, ale spíše očesanou verzí konkrétního vstupního obrazu obličeje, neznečištěnou informacemi o kategorii. Tento „nešumový“ vektor šumu pak může být přiváděn do podmíněné GAN, jak je uvedeno výše.

Překážky pro vstup

Vše, co bylo doposud popsáno, je v komunitě strojového učení dobře známo a je implementováno do algoritmů otevřeného zdrojového kódu, které jsou k dispozici ve snadno použitelných softwarových knihovnách. FaceApp pravděpodobně začal s těmito algoritmy a přidal nějakou „tajnou ingredienci.“  Zdá se, že tvůrci odvedli dobrou práci při identifikaci ústředních rysů vstupního obličejového obrazu a shromáždili mnoho tréninkových dat roztříděných podle podmínek, jakými jsou věk a výrazy obličeje.

Jedna z důležitých věcí, kterou si lze z případu FaceApp odnést, je, že v roce 2019 už neexistuje pro strojové učení překážka pro vstup. Každý programátor v jazyce Python může vytvořit prvotřídní aplikaci, která využívá nejnovější akademické průlomové algoritmy, aniž by musel rozumět detailům těchto algoritmů. To vytváří obrovské příležitosti pro inovace, např. jak tyto algoritmy kombinujete, jaké problémy pomocí těchto algoritmů řešíte, kde najdete tréninková data.

Soukromí a viralita

Základní pravidlo při hodnocení bezplatných online služeb zní: když je služba bezplatná, produktem jste Vy. Jak FaceApp zamýšlí zpeněžit svoji bezplatnou aplikaci? Existuje několik možností, od prodeje pokročilejších funkcí úpravy fotografií až po vytvoření databáze obrázků, které by mohly být prodány jako tréninková data jiným společnostem.

Bez ohledu na základní obchodní model není pochyb o tom, že při souhlasu s podmínkami FaceApp se vzdáte části svého soukromí. Dáváte FaceApp právo přístupu k Vašemu fotoaparátu a Vašim fotografiím a navždy také udílíte práva na veškeré obrázky, které nahrajete. Tyto informace mohou padnout do nesprávných rukou a být zneužity, např. k vytvoření realistických fotomontáží Vás na místě činu k oklamání softwaru pro rozpoznávání obličeje, který se stále častěji používá jako forma identifikace.

Navzdory těmto potenciálním rizikům se miliony uživatelů zaregistrovaly a báječně se bavily pohledem na to, jak by mohly vypadat za 30 let. Zajímavé svědectví o tom, kde jsme se v roce 2019 ocitli – jsme čím dál tím bezstarostnější, i když se vzdáváme svého soukromí výměnou za bezplatné online služby. Společnosti možná čelí rostoucí regulaci ochrany osobních údajů (viz GDPR), ale doma zůstávají naše osobní online údaje do značné míry nechráněné.

Zdroj: Forbes India

Digital Transformation In The Automotive Industry

From building smart dashboards to enabling automated driving, the automotive industry is in the midst of a technological revolution. In an interview with Business World Magazine, Paul Lombardo, Chief Executive Officer, Ness Digital Engineering, talks about the transformation the industry is experiencing and his perspective on what the industry will look like in the future.

Click to read the full article

A Q&A with Ness’s CTO on the Evolution of Deep Fakes

Deep fakes are becoming a topic of discussion not only in the enterprise, but also among consumer audiences. In the following Q&A, we asked Moshe Kranc, our Chief Technology Officer, to provide his perspective on the computer-generated audio or video forgeries that depict a person saying or doing something that never actually happened.

Why do you think there are growing concerns around deep fakes?
Concerns are evolving because the technology has matured to a point where it can produce high quality fakes that are indistinguishable from the real thing. There’s also a low barrier to entry – many products are emerging that can produce convincing fakes at low cost and with minimal user effort.

What potential value might deep fakes-related technology provide to enterprises and what are some of the ethical considerations in using them responsibly?
There are many positive uses of deep fakes that can benefit enterprise organizations because they enable hyper-personalization. Consider the impact of a sales video where a celebrity endorser addresses the customer by name, in the customer’s native language. Or a video of Jeff Bezos personally explaining Amazon bills to customers, down to the smallest details. Hyper-personalization can also be valuable in new employee training, where training videos address the specific concerns of each new employee.

Of course, it’s important for all organizations using deep fake technology to be transparent about its use so they don’t mislead those benefiting from the technology.

What dangers of deep fakes do enterprises need to be aware of and how might they protect themselves from potential problems?
As media consumers, enterprises will have to exhibit a great deal of caution in their reaction to any information they receive. Deep fake technology is the death of “seeing is believing.” From now on, an enterprise must relate to any video or audio content the way we relate to a magician’s sleight of hand – are they tricking me and how did they do it?

An enterprise may also become the victim of a deep fake attack that threatens to destroy its reputation. These fakes may be of such high quality that their “fakeness” can’t be easily proven. This will present a major challenge as the enterprise is forced to defend its reputation by convincing the public that the incriminating media is not real. In an era of social media “echo chambers,” relying on the public’s ability to ignore what they see or hear will be a very difficult task.

Does any existing or proposed regulation apply to the creation or use of deep fakes?
Many experts believe that existing laws provide enough protection against deep fakes, e.g., harassment, “false light” defamation, copyright infringement. In addition, several lawmakers have introduced bills specifically aimed at anyone who knowingly creates or distributes a fake.

How do you expect the value chain of tools for creating deep fakes and detecting them to evolve over the next several years?
Expect a cat and mouse game between technologies that generate fakes and technologies that detect fakes. In the end, deep fake generation will win, and the fake will truly be indistinguishable from the authentic.  At that point, trust no longer resides with the content, so an enterprise’s trust in a particular piece of content must be generated in some other way, such as brand trust or some type of external authentication that is linked to the content.

 

A Q&A with Ness’s CTO on the Evolution of Deep Fakes

Deep fakes are becoming a topic of discussion not only in the enterprise, but also among consumer audiences. In the following Q&A, we asked Moshe Kranc, our Chief Technology Officer, to provide his perspective on the computer-generated audio or video forgeries that depict a person saying or doing something that never actually happened.

Why do you think there are growing concerns around deep fakes?
Concerns are evolving because the technology has matured to a point where it can produce high quality fakes that are indistinguishable from the real thing. There’s also a low barrier to entry – many products are emerging that can produce convincing fakes at low cost and with minimal user effort.

What potential value might deep fakes-related technology provide to enterprises and what are some of the ethical considerations in using them responsibly?
There are many positive uses of deep fakes that can benefit enterprise organizations because they enable hyper-personalization. Consider the impact of a sales video where a celebrity endorser addresses the customer by name, in the customer’s native language. Or a video of Jeff Bezos personally explaining Amazon bills to customers, down to the smallest details. Hyper-personalization can also be valuable in new employee training, where training videos address the specific concerns of each new employee.

Of course, it’s important for all organizations using deep fake technology to be transparent about its use so they don’t mislead those benefiting from the technology.

What dangers of deep fakes do enterprises need to be aware of and how might they protect themselves from potential problems?
As media consumers, enterprises will have to exhibit a great deal of caution in their reaction to any information they receive. Deep fake technology is the death of “seeing is believing.” From now on, an enterprise must relate to any video or audio content the way we relate to a magician’s sleight of hand – are they tricking me and how did they do it?

An enterprise may also become the victim of a deep fake attack that threatens to destroy its reputation. These fakes may be of such high quality that their “fakeness” can’t be easily proven. This will present a major challenge as the enterprise is forced to defend its reputation by convincing the public that the incriminating media is not real. In an era of social media “echo chambers,” relying on the public’s ability to ignore what they see or hear will be a very difficult task.

Does any existing or proposed regulation apply to the creation or use of deep fakes?
Many experts believe that existing laws provide enough protection against deep fakes, e.g., harassment, “false light” defamation, copyright infringement. In addition, several lawmakers have introduced bills specifically aimed at anyone who knowingly creates or distributes a fake.

How do you expect the value chain of tools for creating deep fakes and detecting them to evolve over the next several years?
Expect a cat and mouse game between technologies that generate fakes and technologies that detect fakes. In the end, deep fake generation will win, and the fake will truly be indistinguishable from the authentic.  At that point, trust no longer resides with the content, so an enterprise’s trust in a particular piece of content must be generated in some other way, such as brand trust or some type of external authentication that is linked to the content.

 

Ness Digital Engineering je novým partnerem pro digitalizaci výroby ve společnosti Wikov Industry

Praha, 13. srpna 2019: Společnost Ness Digital Engineering, globální poskytovatel komplexních řešení a business služeb v oblasti informačních technologií, a společnost Wikov Industry, tradiční český výrobce ozubených kol a převodovek, uzavřeli smlouvu o implementaci informačního systému ERP a systému pro řízení vývoje a životního cyklu výrobku PDM/PLM. Společnost Wikov Industry prostřednictvím technologie SAP, na které budou systémy postaveny, dosáhne úplné procesní integrace a digitalizace zakázkové výroby, od vývoje až po dodávku unikátních produktů do velkých investičních celků v energetice, těžkém průmyslu, hutnictví a dopravě.

„Rozhodnutí implementovat SAP S/4HANA ve spolupráci se společností Ness je významným krokem na cestě k plné digitalizaci našeho výrobního procesu,“ řekl Vladimír Truksa, finanční ředitel Wikov Industry. „Ness jsme si jako partnera pro tento projekt vybrali především z důvodu komplexnosti a inovativnosti navrhovaného řešení. Neopominutelným faktem byly i dlouholeté zkušenosti společnosti Ness jako poskytovatele informačních řešení pro výrobní sektor. Oceňujeme novou funkcionalitu systému SAP S/4HANA pokrývající celý životní cyklus výrobku, od vývoje a technické přípravy až po pokročilé plánování a řízení výroby,“ dodává Truksa.

Výběrové řízení na dodavatele systémů ERP a PDM/PLM pro Wikov probíhalo více než rok a konečnému rozhodnutí společnosti předcházela předimplementační analýza s následnou prezentací finalistů, kdy řešení S/4HANA bylo zvoleno jako nejvhodnější technologické řešení.

„Jedná se o unikátní projekt, který díky velkému množství dat, automatizaci a inovaci procesů propojuje životní cyklus výrobků napříč celou společností. Naši experti uplatní dlouholeté zkušenosti a hluboké znalosti výrobní problematiky právě při realizaci tohoto projektu, který je svým rozsahem u nás jedinečný, navíc pro tradičního českého výrobce, jehož produkty jsou žádané v celém světě,“ řekl Karol Kubeczka, ředitel divize Utility & Manufacturing Ness Digital Engineering.

Přípravné fáze projektu se právě rozběhly. Po plném nasazení modulů PDM/PLM – SAP Engineering Control Center, SAP Production Engineering and Operations pro technickou přípravu výroby a plně integrovaného pokročilého systému plánování SAP Production Planning and Detail Scheduling může Wikov Industry začít využívat všech výhod, které SAP S/4HANA pro výrobní proces přináší. Výsledkem bude výrazné zlepšení koordinace aktivit v různých činnostech podniku, zvýšení produktivity práce, vznik datové základny pro kvalitní manažerské rozhodování a snížení časové i materiální ztráty ve výrobním procesu.


O společnosti Ness Digital Engineering

Ness Digital Engineering navrhuje, vytváří a integruje digitální platformy a podnikový software. Propojuje interní procesy a systémy s digitálními produkty a službami pro zákazníky a pomáhá tak společnostem a organizacím identifikovat příležitosti, kdy technologie uvolňují potenciál dělat věci jednodušeji a efektivněji, aby mohly plnit své cíle. Prostřednictvím systémových řešení, implementací standardních softwarových produktů i agilního vývoje na míru, datové analytiky a modernizace aplikačního portfolia propojuje heterogenní systémy do jednoho funkčního celku a vytváří individualizovaná řešení pro komplexní digitální transformaci.

Více informací: staging.ness.czness.com.

O společnosti Wikov Industry

Wikov Industry je tradičním (výroba v Hronově byla zahájena v roce 1884, v Plzni v roce 1918) a největším výrobcem průmyslových převodovek a převodových zařízení v ČR, zároveň patří mezi přední světové výrobce průmyslových převodovek. Strojírenská skupina Wikov Industry se ve své současné podobě začala na trhu etablovat v roce 2002. V ČR mezi její firmy patří plzeňský Wikov Gear s.r.o. (výroba průmyslových převodovek, rychloběžných převodovek a ozubených kol), hronovský Wikov MGI a.s. (průmyslové převodovky, převodovky pro obnovitelné zdroje energie – větrné a přílivové elektrárny a dále pak pohony a převodovky pro kolejová vozidla), Wikov Sázavan s.r.o. (výroba částí strojů a strojírenských komponentů) a Detail CZ (výroba přesných dílců pro nákladní, stavební a zemědělskou techniku). Pro design a konstrukci planetových převodovek skupina využívá svoji společnost Orbital2. Německá firma Gmeinder Getriebe Gruppe, zabývající se výrobou a servisem převodovek pro kolejová vozidla se stala součástí skupiny Wikov v roce 2019. Téhož roku vznikl také závod Wikov – RS na montáž převodovek kolejových vozidel v ruském městě Tver, jakožto společný podnik Wikov Industry a ruského výrobce kolejových vozidel, společnosti PKTS. Celá skupina Wikov Industry v současnosti zaměstnává více jak 1000 lidí, její roční tržby se pohybují na úrovni 120 mil. USD. Celá skupina je dlouhodobě zisková.

Kontakt pro média:

NESS Czech s.r.o.
V Parku 2335/20
148 00 Praha 4

Why Big Data, IoT, AI and Cloud Are Converging in the Enterprise

As predictive decision-making becomes the norm, technology megatrends like BigData, AI, Cloud and IoT are starting to converge, enabling more comprehensive solutions for today’s enterprises. In an article for CMSWire, Angshuman Patra, Chief Delivery Officer, Americas at Ness, shares a quote on how the industry is shifting to leverage this convergence.

Click to read the full article

test