Als Anbieter von personalisierter Arbeitskleidung bzw. Corporate Fashion verortet sich die  Mictex GMBH & CO. KG in der Textilbranche im Stick- und Druckhandwerk. In Eigenregie ging Mictex die ersten Schritte Richtung Digitalisierung und unterstützte das eigene Angebot durch eine Plattformlösung. Diese ermöglichte es dem Unternehmen, die Prozesse von der Auftragsannahme bis hin zu Abwicklung und Produktion digital abzubilden und effizienter zu gestalten. Von der kundenindividuellen Gestaltung der Produkte über einen Konfigurator in einer Online-Shop-Anwendung bis hin zur direkten Übermittlung des Produktionsauftrags an die Maschine konnte vieles optimiert werden.

Allerdings eröffnen sich dadurch über das klassische Auftragsgeschäft hinaus neue Möglichkeiten der Wertschöpfung. Welcher zusätzliche Nutzen lässt sich durch die Einbindung von Partnern realisieren? Welche neuen Kundensegmente lassen sich erschließen? In einem Projekt mit dem Kompetenzzentrum analysierte Mictex die Vielzahl an Ideen für digitale Services. Gemeinsam wurden die unterschiedlichen Ansätze hinterfragt und strukturiert. Anhand einer Bewertung konnte darauf aufbauend eine Entscheidungsgrundlage zur Ableitung weiterer Schritte definiert werden.

In einer Doppelfolge des Podcasts digitalinBW kommen wir mit Mictex ins Gespräch.

Herausforderungen und Digitalisierung beim Textilveredler Mictex: https://bit.ly/3mwJoA2

Vom Auftragsgeschäft zu digitalen Services bei Mictex: https://bit.ly/3DjpmQG

Bei Interesse an einem gemeinsamen Projekt oder Anregungen, stehen wir unter geschaeftsmodell@websites.fraunhofer.de gerne zur Verfügung.

Florian Klein vom VDMA Landesverband Baden-Württemberg  und Jakob Albert vom VDMA Fachverband Software und Digitalisierung haben mit Sebastian Betzin von generic.de und mit Wolfram Schäfer von iT Engineering Software Innovations über das Thema Softwarequalität und Clean Code gesprochen.

Je komplexer und langfristiger Softwareprojekte angelegt werden, desto wichtiger ist die Sicherstellung einer hohen Softwarequalität. Niedrige Softwarequalität rächt sich mit der Zeit. So können neue Features zu Beginn noch relativ einfach implementiert werden, aber mit jeder Veränderung am Quellcode steigt auch der Entwicklungsaufwand für die nächste Änderung. Und wenn nicht sorgfältig gearbeitet wird, wachsen Entwicklungszeit und -kosten mit jedem neuen Feature im schlimmsten Fall exponentiell an. Im Fokus steht vor allem die Nachhaltigkeit. Softwarelösungen müssen heutzutage flexibel auf Veränderungen reagieren können – und das ohne Unmengen an Kosten für Code-Anpassungen zu verschlingen. Wir haben darüber mit Sebastian Betzin und Wolfram Schäfer gesprochen.

VDMA: Wodurch definiert sich Softwarequalität bzw. was ist Clean Code? Und worin unterscheiden sich innere und äußere Softwarequalität?

Sebastian Betzin: Softwarequalität an sich definiert sich erst einmal durch zwei Qualitätsmerkmale: durch innere und äußere Qualität. Äußere Qualität ist im Grunde all das, was man von außen wahrnehmen kann, vom User her. Sprich: Skalierbarkeit, Funktionalität und im Grunde alles, was ich als Anwender mit Sicht von außen als Software wahrnehme. Und das Zweite, was eben vom Entwickler generiert und wahrgenommen wird, ist innere Softwarequalität. Dann gibt es ganz viele andere Merkmale. So rein formal: Das, was von außen wahrgenommen wird, ist das, was wir in der Softwarequalitätsabteilung testen. Innere Qualität ist sozusagen das Fundament der Software.

Wolfram Schäfer: An der Stelle ist zu erwähnen, dass eigentlich die wahren Qualitätsmerkmale eher die inneren Qualitätswerte sind und aus unserer Sicht sind es hauptsächlich Wartbarkeit und Erweiterbarkeit, wie wir in den letzten 20 Jahren immer wieder gelernt haben. Jeder kennt dieses Eisbergmodell: Das was oberhalb der Wasserlinie ist, ist vielleicht die äußere Qualität von Wahrnehmung und Aufwand. Und der Berg darunter, das ist die innere Qualität.

VDMA: Was sind Ihrer Meinung nach die drei wichtigsten Kriterien für Softwarequalität? Wie wird Softwarequalität messbar?

Sebastian Betzin:  Nachvollziehbarkeit, Evolvierbarkeit und eigentlich auch Testbarkeit. Also Testbarkeit in Form von automatisierten Softwaretests. Keine Oberflächentests oder manuelle Tests. Das sind für mich die absoluten Gewinner. Nachvollziehbarkeit deswegen, weil wir uns als Software-Entwickler immer damit beschäftigen, Software, also Quellcode, zu lesen. Egal ob ich eine Neuentwicklung mache oder an etwas Bestehendem weiterentwickle. Das heißt: Nachvollziehbarkeit von Quellcodes ist das Wichtigste überhaupt.

Wolfram Schäfer: Lesbarkeit, Nachvollziehbarkeit, genau das grenzt wieder ab zum Thema Dokumentation. Früher hat man dicke Bücher gelesen: “Wie muss ich Softwarequellcode dokumentieren?” Aus meiner Sicht ist das heute überholt. Der Quellcode muss für jeden am Projekt Beteiligten lesbar und verständlich nachvollziehbar sein. Darauf kommt es im Wesentlichen wirklich an: Evolvierbarkeit, Erweiterbarkeit. Ich glaube gerade im Maschinenbau ist das wichtig, weil wir dort doch sehr lange Produktlebenszyklen haben und wir häufig die Aufgabe haben tatsächlich auch in älteren Softwareständen nochmal etwas weiterzuentwickeln. Wie wird Softwarequalität also messbar? Rein Testen macht Softwarequalität nicht messbar. Deshalb sind Metriken für Softwarequalitätsmaßstäbe schwierig.

Sebastian Betzin: Also ich würde da ergänzen: Es gibt zwei Betrachtungsweisen: Man kann einerseits natürlich statische Codeanalysen fahren mit Hilfe von Tools. Das hilft auf jeden Fall, um Code-Smells und die typischen Fehler in den Griff zu kriegen. Das deckt aber nur einen Teil der Wahrheit ab. Es bezieht sich sozusagen sehr auf den syntaktischen Baum des Quellcodes. Was nicht oder noch nicht messbar ist, ist die semantische Codequalität. Also alles was Lesbarkeit und Nachvollziehbarkeit betrifft, ist dort nicht abgedeckt: Sind die Methoden gut benannt? Sind die Klassen gut benannt? Spiegeln sie die Domänensprache wider? Ist es in sich schlüssig? Das ist noch nicht messbar. Das geht nur über manuelle Code-Reviews. Zusammenfassend ist deswegen Softwarequalität lediglich teilweise messbar. Im Übrigen: Softwarequalität kann auch auf Low Code-Anwendungen übertragen werden. Teilweise sind die Themen Nachvollziehbarkeit und Lesbarkeit auch absolut als Qualitätsmerkmal gegeben. Ich kann auch in Low Code Anwendungen ziemlichen semantischen Schrott programmieren, den nachher niemand mehr versteht.

Sebastian Betzin (Quelle: generic.de software technologies AG)

Sebastian Betzin ist Vorstand und CTO der generic.de software technologies AG. Als studierter Wirtschaftsinformatiker ist er nach wie vor begeisterter Softwareentwickler aus Leidenschaft. Er ist stellvertretender Vorstandsvorsitzende des Fachverbandes „Software und Digitalisierung” des VDMA und engagiert sich in der Initiative Clean Code Development (CCD). Das Thema Softwarequalität bzw. Clean Code liegt ihm besonders am Herzen.

 

 

Wolfram Schäfer (Quelle: iT Engineering Software Innovations GmbH)

 

Wolfram Schäfer ist Gründer und geschäftsführender Gesellschafter bei iT Engineering Software Innovations GmbH. Als Maschinenbauingenieur und studierter Informatiker ist er seit über 25 Jahren an der Schnittstelle zwischen Maschinenbau und IT tätig. Er ist Teil des Vorstands im Fachverband „Software und Digitalisierung“ des VDMA sowie Industrie 4.0-Scout der Allianz Industrie 4.0 Baden-Württemberg. Mit Herzblut engagiert er sich besonders für die Themen Softwareengineering, Softwarequalitätssicherung und agile Softwareentwicklung.

 

VDMA: Wodurch entsteht „technische Schuld“, wie kann diese verhindert und wieder abgebaut werden?

Wolfram Schäfer: Technische Schuld baut sich dadurch auf, dass Anforderungen teilweise nicht wirklich gut spezifiziert werden. Oftmals fehlt die Bereitschaft, am Anfang Aufwand in Qualität zu investieren. Wir haben es schon oft erlebt, dass der Kunde gar nicht bereit ist, für das Thema innere Qualität auch Geld auszugeben. Damit wird eigentlich erst diese technische Schuld aufgebaut, vergleichbar mit finanziellen Schulden, Zinsen und Zinseszinseffekt. Wenn man genau diese längere Lebensdauer von Software hat, dann kann das echt zu einer Zinsfalle werden, dass man am Ende nur noch seine Schulden tilgt oder für seine Zinsen arbeitet und damit die Entwicklungsgeschwindigkeit in den Keller geht.

Sebastian Betzin: Technische Schuld entsteht dann, wenn kein Fokus auf innerer Qualität vorhanden ist. Und dies entsteht dann, wenn das Projekt es nicht zulässt. Das heißt, wenn im Projekt die anderen Rahmenbedingungen wie Umfang und Zeit von außen vorgegeben sind. Durch den dadurch entstehenden Druck wird die innere Qualität vernachlässigt. Technische Schuld ist somit eine aufgeschobene Investition in innere Qualität. Das geht eine ganze Weile gut, solange bis die technische Schuld so hoch ist, dass es Auswirkungen auf das Projekt hat. Warum? Weil ich als Entwickler in einen Bestandscode rein gehe und einen nicht optimalen Quellcode vorfinde, der nicht ganz lesbar, nicht ganz nachvollziehbar und nicht ganz testabgedeckt ist. In diesem Code Änderungen vorzunehmen, dauert einfach länger als in einem guten Code. Und dann kommen solche Effekte zum Tragen: Dann mache ich Sachen nicht mehr sauber, sondern programmiere ein wenig drumherum, bekomme es doch zum Laufen und somit potenzieren sich die Mängel in der Software.

Wolfram Schäfer: Und das ist im Grunde in der Entwicklungsgeschwindigkeit nachher wieder schwer messbar, aber spürbar. Ich würde sagen, jeder Entwickler weiß, wenn er technische Schulden aufbaut. Da hat er ein schlechtes Gefühl und kann es dann auch nicht kompensieren. Dadurch sinkt am Ende die Entwicklungsgeschwindigkeit. Irgendwann bin ich dann nur noch damit beschäftigt, meine Schulden zu tilgen und komme gar nicht mehr in der Evolvierbarkeit oder Erweiterbarkeit von meiner Software voran. Das heißt, ich verwende ein viel zu hohes Budget oder viel zu viele Entwickler darauf, die Software mehr oder weniger am Laufen zu halten. Damit wiederum schließt sich der Kreis zu den Kosten, weil man am Anfang nicht bereit ist, den Aufwand schlussendlich auch einzugehen. Wenn ich anfangs in eine saubere Architektur, ein sauberes Konzept sowie einen sauberen und agilen Prozess investiere, habe ich zunächst vielleicht eine langsamere Entwicklungsgeschwindigkeit, aber am Ende eine sehr viel höhere Qualität. Da hat sich in den letzten Jahren auch viel verändert. Es gibt dort heute ein anderes Bewusstsein. Viele haben auch eine andere Wertschätzung gegenüber Software, gerade im Maschinenbau. Insofern sind wir auf einem guten Weg.

VDMA: Was sind aus Ihrer Sicht die wichtigsten Verfahren, um eine hohe Qualität Ihrer Software zu gewährleisten?

Sebastian Betzin: Hierbei muss man zwei Ebenen betrachten: Zum einen muss das Entwicklungsteam verstehen, was Qualitätsfaktoren sind und wie man diese erreicht. Innere Qualität also. Außerdem müssen die Rahmenbedingungen so gestaltet sein, dass das Team dies auch umsetzen kann. Das muss sowohl vom Produktmanagement, vom Teamsetup und von der Entscheidungsebene unterstützt werden. Es muss auch Wert auf Qualität gelegt werden. Der äußere Projektdruck entsteht nicht durch das Entwicklerteam, sondern von außen. Beide Sachen müssen zutreffen, damit ich gute Qualität umsetzen kann.

Wolfram Schäfer: Um eine hohe Qualität zu gewährleisten, sind agile Vorgehensmodelle wie beispielsweise Scrum wichtig. Unsere Erfahrung zeigt, dass toolgestützte Code-Reviews vermutlich der beste Ansatz und der früheste Ansatz sind, wirklich auf Qualität zu achten, gefolgt von automatisierten Tests und automatischen Deployment. Man muss da am Ball bleiben. Kontinuierliches Refactoring, kontinuierliche Restrukturierung meiner Software ist ein Must-have. Man vergleicht oft Software mit Architektur: eine Instandhaltung meiner Wohnung oder meines Hauses in Form von Renovierungsarbeiten beispielsweise betreibe ich auch kontinuierlich. Das kann man auf die Software übertragen, nur noch viel intensiver, weil es dort um einiges komplexer ist.

VDMA: Nach welchen Methoden entwickeln Sie? Wie kann die Wahl der richtigen Entwicklungsmethode die Softwarequalität beeinflussen?

Wolfram Schäfer: Bleibt noch was anderes übrig als agil?

Sebastian Betzin: Na ja, ich kann auch im Wasserfall Softwarequalität verankern. Das geht auch. Wobei es da tatsächlich schwieriger ist. Ich kann aber auch schlechten Code mit agilen Methoden produzieren.

Wolfram Schäfer: Das stimmt natürlich.

Sebastian Betzin: Es geht beides. Agil, würde ich sagen, kann die Entwicklung von gutem Code fördern. Allerdings nur, wenn das Bewusstsein im Team vorhanden und fest verankert ist.

Wolfram Schäfer: Ich denke, dass agile Methoden die Möglichkeiten bieten, es zu verankern. Wenn ich alles unter einem anderen Label mache, dann komme ich auch wieder bei einem ähnlichen Prozess raus. Ich brauche klar definierte Strukturen und Prozesse, wie man sie auch vom agilen Arbeiten kennt. Mit all den Schwierigkeiten, die es dann natürlich auch gibt. Es wird dann nicht plötzlich alles gut.

Sebastian Betzin: Also nur weil ich etwas agil mache, habe ich nicht automatisch gute Softwarequalität. Der Eindruck darf nicht entstehen.

VDMA:  Vielen Dank an Sie beide für das Interview.

Dieses Interview wurde von dem VDMA Fachverband Software und Digitalisierung, dem VDMA Landesverband Baden-Württemberg und dem Mittelstand 4.0-Kompetenzzentrum Stuttgart durchgeführt.

Kontakt:

Florian Klein
VDMA Landesverband Baden-Württemberg
florian.klein@vdma.org
(+49 711) 2 28 01-18

Im Rahmen eines Projekts arbeitet das Mittelstand 4.0-Kompetenzzentrum Stuttgart gemeinsam mit der CNC-Zerspanung Kreidler GmbH aus Horb am Neckar an der Gestaltung eines Geschäftsmodells des Unternehmensnetzwerks „CORE“ (Cooperation Resources Exchange). Grundstein des CORE-Netzwerks bilden mehrere regionale Unternehmen aus unterschiedlichen Bereichen.

Neben der Kreidler GmbH (CNC-Zerspanung) gehören die Rexma GmbH (Baugruppenmontage), die ERAtrade GmbH (Industriehandel), die EGE Consult (Prozessmanagement), die AWICA GmbH (Industriemontage, Anlagenbau) und die AW Personal GmbH (Personalvermittlung) mit zum CORE-Netzwerk (Vgl. Abbildung).

CORE-Netzwerk

 

 

 

 

 

 

 

 

 

 

Abbildung 1: CORE-Netzwerk (Quelle: www.cnc-zerspanung-kreidler.de/komplettloesungen)

 

Die Unternehmen wollen sich in dem CORE-Netzwerk zusammenschließen, um durch die Kombination der Fähigkeiten der unterschiedlichen Partner neue kooperative Geschäftsmodelle zu gestalten. In der bisherigen Zusammenarbeit werden teilweise bereits Kundenaufträge gemeinsam bearbeitet.

Ziel des CORE-Netzwerks ist es jedoch weitere Leistungsangebote zu identifizieren, zu definieren und am Markt als solche anzubieten. Im Zentrum steht dabei das Etablieren von „industriellen Komplettlösungen“ als Leistungsangebot am Markt. Im Rahmen des Projekts wurden auf Basis dieses übergeordneten Leistungsangebots Teilservices definiert, die erforderlich sind, um industrielle Komplettlösungen am Markt anbieten zu können.

Durch das neue Geschäftsmodell können die Netzwerkpartner ihr eigenes Leistungsportfolio erweitern und somit zusätzliches Business generieren. Demgegenüber ergibt sich für die Kunden des CORE-Netzwerks ein Mehrwert durch die Inanspruchnahme des Gesamtangebote oder der Teilservices. Durch das Zusammenspiel der Partner kann das Netzwerk ein breites Leistungsangebot für seine Kunden anbieten und die Bedürfnisse der Kunden umfassend abdecken und erfüllen.

Im Rahmen der Zusammenarbeit mit dem Kompetenzzentrum wurden zwei unternehmensübergreifende Leistungsangebote identifiziert und spezifiziert, welche sich aus den Fähigkeiten der unterschiedlichen Partnerunternehmen zusammensetzen:

  • Baugruppenfertigung und
  • Maschineneinrichtung

Bei einer Baugruppenfertigung profitieren Kunden (u.a. aus den Branchen Hydraulik, Maschinenbau, Medizintechnik, Textiltechnik und Kühltechnik) an der gesamtheitlichen Abwicklung. So wird die Materialbeschaffung und Fertigung seitens der Kreidler GmbH realisiert, während die nachfolgende Montage von der Rexma GmbH und die Lieferung wiederum von der Kreidler GmbH übernommen werden. Die Unternehmen sowie schließlich der Kunde, profitieren hierbei von den Synergien des Netzwerkes. Die gemeinsame Zielvereinbarung mit dem Kunden, als auch Netzwerkpartnern, bestrebt eine erfolgreiche Auftragsabwicklung. Eine entscheidende Rolle spielt hierbei die Digitalisierung der Kommunikation, sowohl unternehmens- als auch netzwerkintern. Durchgehender Austausch und Transparenz über die gesamte Auftragsabwicklung ist als essenzielle Eigenschaft eines Netzwerks unabdingbar.

Dies trifft auch auf das Leistungsangebot Maschineneinrichtungen zu, wo Teilleistungen für industrielle Maschinen zu einem Gesamtangebot zusammengeführt werden. So werden hier Transport und Aufstellung durch die AWICA GmbH übernommen. Im weiteren Verlauf übernimmt die Kreidler GmbH die Einrichtung der Maschine. Für Wartung und Instandhaltung steht ebenfalls die AWICA GmbH zur Verfügung und falls qualifiziertes Personal zur Bedienung benötigt wird, kann dies über die AW Personal GmbH bezogen werden. Kunden können somit Leistungen in Anspruch nehmen, zu denen sie oftmals über keine eigenen Fähigkeiten verfügen, während durch die Partner des CORE-Netzwerkes ggf. weitere Leistungen abgedeckt werden.

 

Das Mittelstand 4.0-Kompetenzzentrum Stuttgart unterstützt kleine und mittlere Unternehmen bei Themen rund um die Digitalisierung. Falls auch Sie Ideen für eigene Projekte haben oder Fragen bestehen, kommen Sie gerne auf uns zu.

 

Ihre Ansprechpartner*innen:

Patrick Weber (patrick.weber@ferdinand-steinbeis-institut.de)
Alexandra Keller (alexandra.keller@ferdinand-steinbeis-institut.de)

 

Durch den Einsatz von programmierbaren Softwarerobotern, sog. Bots, lassen sich täglich anfallende Routinetätigkeiten automatisch bearbeiten, wodurch die Mitarbeitenden innerhalb des Unternehmens dauerhaft entlastet werden können. Demzufolge lassen sich einige Geschäftsprozesse nachhaltig optimieren sowie wertvolle Zeit gewinnen und Geld sparen.

Am 14.07.2021 wurde bei einer Veranstaltung vom VDMA Baden-Württemberg und dem Fachverband SuD „Software und Digitalisierung“ in Kooperation mit dem Mittelstand 4.0-Kompetenzzentrum Stuttgart die Theorie und Praxis dieser Thematik vereint.

Gleich zu Beginn wurde via Mentimeter ein Live-Stimmungsbild zum genannten Schwerpunktthema aus dem Teilnehmerkreis generiert. Die Ergebnisse lieferten direkte Einblicke, auf welchem Niveau sich die verschiedenen Unternehmen bewegen. Bei der ersten Frage ging es um die automatische Rechnungsverarbeitung, bei der fast zwei Drittel aller Befragten angaben, dass dies unternehmensintern noch nicht vollautomatisiert abläuft. Die zweite Frage hingegen zielte darauf ab, zu erfahren, ob die Unternehmen mit den RPA-Bots (Softwareroboter) bisher vertraut sind bzw. im Unternehmen eingesetzt werden. Für knapp 80 Prozent der angemeldeten Personen ist diese Art von Prozessautomatisierung noch völliges Neuland. Um ein Gespür dafür zu bekommen, inwiefern die Teilnehmenden sich bisher mit dem Thema auseinandergesetzt haben, wurde eine dritte und letzte Frage gestellt, bei der es darum ging, Kriterien zu beschreiben, bei dem ein Einsatz von Softwarerobotern am sinnvollsten erscheint. Hier kann festgehalten werden, dass ein Prozess folgende Voraussetzungen erfüllen sollte, um maximale Optimierungseffekte erzielen zu können: der Prozess besteht aus vielen manuellen Tätigkeiten, wiederholt sich, besitzt ein festes Regelwerk, besteht aus strukturierten Eingaben, es gibt keine Ausnahmefälle und besitzt demnach hohe Qualitätsauswirkungen.

Den Teilnehmenden wurde im Anschluss vom hauseigenen VDMA-Experten, Jakob Albert, das notwendige Grundlagenwissen vermittelt, um die Thematik rundum RPA-Bots besser verstehen und bewerten zu können. Hierbei ging es im Wesentlichen darum, aufzuzeigen, was sich überhaupt hinter dem Begriff an sich verbirgt und wie die Entstehungsgeschichte dahinter aussieht. Unterschieden werden grundsätzlich zwei Arten von RPA: teilautomatisiert (attended – Anwender wird von Roboter unterstützt) und vollautomatisiert (unattended – Roboter arbeitet selbstständig). Die Anwendungsbereiche hingegen sind sehr vielfältig, da es sich um repetitive Aufgaben handeln soll, bei der eine Schnittstelle zwischen Mensch und Computer gewährleistet sein muss. Beispielsweise geht es hierbei um das Kopieren und Einfügen von Daten in Formulare oder Dokumente, das Zugreifen auf aktuelle Daten auf Webseiten, das Auslesen von Informationen aus Dokumenten sowie das Durchführen von Berechnungen.

Um mehr Einblicke in das Potenzial von RPA im Finanzbereich zu bekommen, wurde die angesprochene Thematik mit dem Aufzeigen von Praxisbeispielen in Form von animierten Kurzvideos näher betrachtet und anschaulich aufbereitet. Malte Horstmann, Geschäftsführer OMM Solutions GmbH, zeigte demzufolge live wie das Einbuchen von Belegpositionen mithilfe eines Bots ausgelesen und vorbereitet werden kann und wie Rechnungen in einem ERP-System eingelesen werden können. Interessant war auch zu sehen, wie eine selbstständige Datenprüfung via Excel und ERP-System ablaufen kann.

Somit bietet die Technologie rundum RPA etliche Vorteile, wie das Entlasten der Mitarbeitenden, die Steigerung der Prozess- und Datenqualität, die Steigerung der Arbeitsgeschwindigkeit, die Erhöhung der Transparenz und die daraus resultierende Kostenersparnis. Des Weiteren sind keinerlei Programmierkenntnisse erforderlich, da die Bedienung bzw. das Anlernen des Roboters sehr einfach zu handhaben ist.

Als Kritikpunkte haben sich beispielsweise folgende Punkte herauskristallisiert: komplexe Prozesse sind nur sehr schwer automatisierbar, es erfolgt keine inhaltliche Bewertung oder Interpretation der Daten, die Flexibilität ist bei nicht eindeutigen Daten nicht gewährleistet und die geringe Interpretationsfähigkeit bei Änderungen in der zu bedienenden Software stellt auch ein Problem dar.

Zusammenfassend lässt sich demzufolge sagen, dass die Anwendung von Robotic Process Automation im Finanzbereich einige Vorteile mit sich bringen kann. Hier geht es nicht nur um Kosteneinsparungen, die sich lohnen können, sondern auch und vor allem um die Qualitätsverbesserung, da Fehler reduziert werden. Dennoch steckt, neben dem Finanzbereich, in jeder Abteilung ein gewisses Automatisierungspotenzial. Die virtuellen Mitarbeitenden verhelfen der menschlichen Belegschaft somit wieder zu mehr Kreativität und Innovationsfreude. Mit Blick in die Zukunft bleibt festzuhalten, dass durch die sogenannten Software-Bots eine Menge an Neuerungen einhergehen werden, die größtenteils zu positiven Aspekten führen, weshalb die Automatisierung im F&C-Bereich mittelfristig nicht mehr wegzudenken ist.

Haben Sie die Veranstaltung verpasst?

Hier finden Sie einen Überblick über kommende Veranstaltungen aus dem Themenfeld Produktion.

Wir freuen uns auf Sie!

 

Der Begriff 5G hat sich als ein weit verbreitetes Thema im Maschinen- und Anlagenbau etabliert. 5G, die fünfte Generation der Mobilfunktechnologie, verspricht ein wichtiger Wegbereiter für die Industrie der Zukunft zu werden.

Ein Schlüsselfaktor für den wirtschaftlichen Erfolg des deutschen Maschinen- und Anlagenbaus in der Zukunft wird die erfolgreiche und profitable Bereitstellung von hochproduktiven und zuverlässigen, drahtlos-vernetzbaren Maschinen und Anlagen sein, mit dem Fokus auf einen qualitativ hochwertigen Nutzwert für den Endanwender. Darüber hinaus wird die Konvergenz von Automatisierungsprozessen und zuverlässiger drahtloser Kommunikation die Produkt- und Produktionsinnovation vorantreiben. Es besteht demnach ein enormer Handlungs- und Evaluierungsbedarf bezüglich 5G, um das wahre Potential dieser Technologie frühzeitig zu erkennen. Zugleich zeigen die gewonnenen Erfahrungen das Interesse des Maschinen- und Anlagenbaus, neben 5G, weitere industrietaugliche Funktechnologien in Betracht zu ziehen.

Am 07.07.2021 wurde dieser beschriebene Themenaspekt in einer Veranstaltung vom VDMA Baden-Württemberg und der Arbeitsgemeinschaft WCM „Wireless Communications for Machines“ in Kooperation mit dem Mittelstand 4.0-Kompetenzzentrum Stuttgart aus theoretischer und praktischer Sicht behandelt.

Gleich zu Beginn wurde mit den über 60 (erschienenen) Teilnehmenden ein Live-Stimmungsbild, via Mentimeter, zum genannten Schwerpunktthema erzeugt. Die Ergebnisse dieser Bestandsaufnahme gaben einen ersten Einblick, welche drahtlosen Technologien bei den Unternehmen aktuell stark im Fokus stehen. Hier lagen beispielsweise folgende Nennungen vor: 5G, WiFi-6, Bluetooth Low Energy, ZigBee, Starlink, LTE/4G, RFID. Eine weitere Frage zielte darauf ab, welche (technischen) Anforderungen an die Wireless Technologien in der Produktion bzw. am Produkt zu gewährleisten sind. Die Antworten beziehten sich hierbei meist auf Zuverlässigkeit/Stabilität, Verfügbarkeit, Echtzeitfähigkeit sowie auf Geschwindigkeit und Cybersecurity. Bei der dritten und letzten Einstiegsfrage ging es um mögliche Anwendungsszenarien in den jeweiligen Unternehmen. Hier waren die Rückmeldungen sehr gemischt. Es ging von einem autonomen Materialtransport über Machine-to-Machine Kommunikation bis hin zur Wartung von Maschinen.

Den Teilnehmenden wurde im Anschluss von Dr. Miriam Solera die neugegründete AG WCM (seit März 2021) hinsichtlich Motivation erklärt und einzelne Aktivitäten näher vorgestellt. Die Arbeitsgemeinschaft selbst besteht derzeit aus 93 Mitgliedern aus den Bereichen Maschinen- und Anlagenbau, Information- und Kommunikationstechnologien, Automatisierungstechnik sowie Forschungsinstituten bzw. Hochschulen und gliedert sich in sechs Arbeitsgruppen. Die Mitgliedschaft für VDMA-Mitglieder ist kostenfrei.

Um mehr Einblicke in das Potenzial von 5G in der Produktion und Logistik zu bekommen, wurde die angesprochene Thematik mit dem Aufzeigen der vielseitigen Anwendungsbereiche näher beleuchtet und anschaulich dargestellt. Fabian Haag, Fraunhofer IPA, und Fabian Dietrich, Digital-Hub Neckar-Alb & Sigmaringen, zeigten darüber hinaus noch die Kooperationsmöglichkeiten mit dem Transferzentrum „5G4KMU“ auf, bei dem gezielt kleinen und mittleren Unternehmen ein Einstieg in den neuen Mobilfunkstandard 5G aufgezeigt werden soll. Hier können, gemeinsam, Produkte und Geschäftsmodelle weiterentwickelt oder gar neue Ideen erprobt werden.

Die Veranstaltung wurde durch einen Vortrag von Herrn Dr. Nevermann, CETECOM GmbH, abgerundet, bei dem es um den Vergleich zwischen 5G und WiFi-6 aus theoretischer Sicht und den zu erwartenden Unterschiede in der Praxis ging. Hier wurde demnach stark verdeutlicht, dass beide Funktechnologien ihre Vor- und Nachteile haben. Eine Entscheidung für oder gegen ein System hängt demzufolge hauptsächlich von organisatorischen Gegebenheiten, der Industrieumgebung und von der Art der Anwendung ab.

Haben Sie die Veranstaltung verpasst?

Hier finden Sie einen Überblick über kommende Veranstaltungen aus dem Themenfeld Produktion.

Wir freuen uns auf Sie!

 

 

Künstliche Intelligenz ist in aller Munde – auch in der Produktion. Entscheidender Erfolgsfaktor in solchen Projekten ist neben der Vernetzung auch die strukturierte Verarbeitung der Daten. Innovative Technologien wie KI erfordern dabei allerdings auch moderne Methoden in der Entwicklung und Implementierung.

Am 25.05.2021 wurde dieser beschriebene Themenaspekt in einer Veranstaltung vom VDMA Baden-Württemberg in Kooperation mit dem Mittelstand 4.0-Kompetenzzentrum Stuttgart und der Allianz Industrie 4.0 Baden-Württemberg ausführlich besprochen.

In Bezug zu dieser ERFA-Veranstaltung wurde, vor den externen Fachbeiträgen, ein Stimmungsbild zum genannten Schwerpunktthema aus dem Teilnehmerkreis erzeugt. An dieser Live-Umfrage gaben zwei Drittel aller Befragten an, dass der Einsatz von KI-Lösungen in Planung bzw. in der Entwicklung und im konkreten Einsatz ist. Die restlichen Teilnehmenden stuften das Thema als relevant ein, aber haben bislang keine konkreten Planungen diesbezüglich in der Mache.

Die Veranstaltung bot zunächst einen grundlegenden Einstieg in das Thema der selbst lernenden Systeme, was häufig als „Künstliche Intelligenz“ bezeichnet wird. Welche Voraussetzungen gerade in der Produktion nötig sind und wie diese geschaffen werden, wurde anhand eines Praxisbeispiels der EMAG GmbH illustriert. Somit wurde den Teilnehmenden ein erfolgreicher Weg aufgezeigt, hin zu digitalen Mehrwertdiensten für Kunden. Abschließend wurden Einblicke in erfolgreich umgesetzte Projekte bei EMAG-Kunden anschaulich aufbereitet.

Insgesamt war es mit über 40 Teilnehmenden eine gelungene Veranstaltung, in der theoretische Kenntnisse und Grundlagen mit konkreten Anwendungsfällen näher beschrieben wurden. Den Teilnehmern bot sich während der gesamten Veranstaltung die Möglichkeit direkt mit den drei Referenten in einen Austausch zu gehen und so wertvolle Erfahrungen und Anregungen für eigene Projekte zu sammeln und zu erörtern.

Haben Sie die Veranstaltung verpasst?

Hier finden Sie einen Überblick über kommende Veranstaltungen aus dem Themenfeld Produktion und hier aus dem Themenfeld Künstliche Intelligenz.

Wir freuen uns auf Sie!

 

 

OPC UA spielt eine wichtige Rolle bei der Umsetzung von Industrie 4.0: Diese verlangt nach einheitlichen Standards für die hersteller- und hierarchieübergreifende Vernetzung von Komponenten, Maschinen, Anlagen und Steuerungen verschiedener Hersteller. Um diese Maschine-zu-Maschine-Kommunikation zu vereinheitlichen, sieht der VDMA durch seine Mitglieder den einheitlichen Kommunikationsstandard OPC UA als Vorzugsstandard. Die in OPC UA zu standardisierenden technischen Eigenschaften der Produkte sind konkrete Geräte- und Fähigkeitsinformationen. Diese werden durch objektorientierte Informationsmodelle in technischen Spezifikationen, den OPC UA Companion Specifications, beschrieben.

Am 02. Juni 2021 wurde dieser beschriebene Themenaspekt in einer Veranstaltung des VDMA Baden-Württemberg und Nordrhein-Westfalen in Kooperation mit dem Mittelstand 4.0-Kompetenzzentrum Stuttgart und ProduktionNRW ausführlich besprochen. Im Rahmen dieses Web-Erfas wurde zu Beginn eine Bestandsaufnahme der Teilnehmer zum genannten Schwerpunktthema eingeholt. An diesem Live-Stimmungsbild gaben ca. 2/3 aller Befragten an, dass sie sich bezüglich des Wissenstandes rund um OPC UA als “fortgeschritten” einstufen würden. Das restliche Drittel untergliedert sich in Anfängerinnen/Anfänger sowie Expertinnen und Experten. In einer weiteren Frage ordneten die Teilnehmer und Teilnehmerinnen die Relevanz von OPC UA zu 70 Prozent als relevant bis sehr relevant ein. Des Weiteren ist bei fast 80 Prozent der teilnehmenden Unternehmen eine Schnittstellenimplementierung bereits erfolgt oder geplant.

Um die Teilnehmenden dennoch auf ein Level bezüglich Basiswissen zu bringen, gab Johannes Olbort, VDMA Forum Industrie 4.0 ein Einführungsvortrag zur Technologie OPC UA, der unter anderem die Herkunft des Begriffes, die Funktionsweise und ein Fazit beinhaltete. Abgerundet wurde dies von Heiko Herden, der die Aktivitäten zu OPC UA seitens des VDMA erläuterte. Dabei standen die Standardisierung in den rund 35 branchenspezifischen Arbeitskreisen und die branchenübergreifende Harmonisierung in „OPC UA for Machinery“ im Fokus.

Um mehr Einblicke in einzelne Unternehmen und die konkrete Umsetzung von OPC UA zu bekommen, wurde die ganze Thematik mit den beiden Praxisbeispielen aus Baden-Württemberg und Nordrhein-Westfalen abgerundet. Durch Vorträge von Dr. Kai Kerber, Oskar Frech sowie Richard Habering, Igus, zeigte sich, welchen Nutzen und Mehrwert eine OPC UA-Schnittstellenimplementierung mit sich bringen kann. Insbesondere eine künftige Kostenersparnis wurde dabei stets hervorgehoben und mit den praktischen Darstellungen untermauert.

Als Ausblick in die Zukunft zeichnet sich das Bild ab, dass die Aktivitäten rund um OPC UA noch weiter zunehmen werden. Die bessere Zugänglichkeit von Daten kann vom Shop-Floor bis in die Cloud genutzt werden und ermöglicht neben einer Kostenreduktion auch neue Geschäftsmodelle. Dies dient als Treiber, genauso wie das das Zielbild Plug & Produce, auf das mit der Weltsprache der Produktion hingearbeitet wird.

Haben Sie die Veranstaltung verpasst?

Hier finden Sie einen Überblick über kommende Veranstaltungen aus dem Themenfeld Produktion. 

Wir freuen uns auf Sie!

 

Ausgangslage 

Viele Wettbewerber in einem hart umkämpften Markt. Ähnliche Produkte & Dienstleistungen und nur geringe Gewinnmargen. Ständiges Optimieren des Kosten-Nutzen-Verhältnisses. Umstände, die besonders kleine und mittelständische Unternehmen vor große Herausforderungen stellen.

So auch im Bereich von Software-Lösungen zur automatisierten Angebotserstellung, die zunehmend Anklang bei Handwerksbetrieben finden. Auf dem Markt befinden sich bereits eine Vielzahl an Software-Angeboten von unterschiedlichsten IT-Unternehmen. Um dem dort herrschenden Wettbewerbsdruck zu entkommen, können sich Unternehmen durch die Anwendung geeigneter Strategien von der Konkurrenz differenzieren.

Blauer-Ozean-Strategie

Die Methode „Blauer-Ozean-Strategie“ (in Anlehnung an Blue Ocean Strategy) ist eine systematische Vorgehensweise, die dabei unterstützt, aus einem Marktfeld mit starkem Wettbewerb (roter Ozean) in ein noch freies Marktfeld (blauer Ozean) zu gelangen. Die Frage für Unternehmen ist, anhand welcher Merkmale  sich ein Unternehmen mit seinen Produkten oder Dienstleistungen von der Konkurrenz abheben kann.

Ein Instrument der Methode ist der „Strategie Canvas“. Darin wird das aktuelle Leistungsangebot des Unternehmens in fundamentale Merkmale (x-Achse) unterteilt und anschließend bewertet (y-Achse). Neben der unternehmenseigenen Bewertung werden zudem die Angebote von konkurrierenden Unternehmen im gleichen Wettbewerb bewertete und eingetragen. Zur Beurteilung der Merkmale können Benchmark-Ergebnisse, Wettbewerbsanalysen sowie die Einschätzung des Managements herangezogen werden.

Anwendung im Projekt

Für eine umfassendere Analyse des aktuellen Geschäftsmodells, ist es empfehlenswert die Merkmale aus unterschiedlichen Betrachtungswinkeln zu erfassen und je Betrachtungswinkel ein separates „Strategie Canvas“ zu erstellen. Im hier beschriebenen Projekt wurden Merkmale aus Sicht der Verbraucher*innen und der Handwerksbetriebe erarbeitet. Im Folgenden wird nur auf die Sicht seitens der Verbraucher*innen eingegangen.

Damit Handwerksbetriebe eine digitale Angebotserstellung durchführen können, werden gewisse Parameter der Nutzer*innen bzw. potenziellen Kund*innen benötigt. Den Nutzer*innen sollen möglichst alle Handlungsoptionen präsentiert werden, unter gleichzeitiger Prüfung der technischen und handwerklichen Durchführbarkeit. Je mehr Daten hier zur Verfügung stehen, desto detaillierter fällt das Angebot aus.

Durch die vier Maßnahmen Eliminierung, Reduzierung, Steigerung und Kreierung können die eigenen Kernmerkmale des Leistungsangebots anschließend so angepasst werden, dass ein differenziertes Produkt/Dienstleistung abseits der Konkurrenz entsteht. Hierbei empfiehlt es sich die Bewertung der Merkmale der Wettbewerber im Vergleich zum eigenen Unternehmen zu analysieren, um Verbesserungspotentiale zu identifizieren. Durch eine branchenübergreifende Sicht, den Blick in Richtung neuer Zielgruppen sowie die Erstellung neuer Produkt- und Dienstleistungsangebote können schlussendlich neue Geschäftsbereiche erschlossen werden. Damit wird die Grundlage für die Positionierung im Markt geschaffen.

Im Falle unseres regionalen IT-Unternehmens aus dem Handwerk konnte durch die „Blaue-Ozean-Strategie“ das aktuelle Produkt um wichtige Kernmerkmale ergänzt und somit eine Differenzierung gegenüber der Konkurrenz erzielt werden. Zudem wurden übergreifende Angebote erkennbar und durch weitere Software-Lösungen konnten zusätzliche Ansätze für Geschäftsmodelle abgeleitet werden.

 

 

Lean Management ist vielen Unternehmen ein Begriff. Häufig hapert es aber noch an der Umsetzung „leaner“ Methoden, besonders in kleinen und mittleren Unternehmen. Beispielweise ist das Werkzeug der Wertstromanalyse primär bekannt aus der Serienfertigung. Doch auch im Rahmen variantenreicher Einzelfertigung kann eine Wertstromanalyse zum Einsatz kommen und dazu beitragen, Verbesserungspotentiale aufzudecken und Verschwendung zu reduzieren.

Mehrfarbige Ringe (Quelle: egf Manufaktur)

Am Beispiel der egf Manufaktur in Pforzheim wurde mit der Unterstützung des Mittelstand 4.0- Kompetenzzentrum Stuttgart eine Methode entwickelt, welche den Einsatz der Wertstromanalyse in der kundenindividuellen Trauringproduktion möglich macht. Trauringe sind Einzelstücke und werden nach Kundenwünschen über einen detaillierten Produktkonfigurator zusammengestellt. Merkmale wie Ringprofil, Legierung, Steinbesatz oder Gravur sind individuell gestaltbar und beeinflussen maßgeblich die dahinterliegenden Fertigungsprozesse. Die hohen Kundenansprüche an Produktqualität und Termintreue lassen dabei keinen Spielraum für Fehler.

Verschiedene Ringprofile (Quelle: egf Manufaktur)

Die vielfältigen Konfigurations- und Personalisierungsmöglichkeiten bedingen, dass jeder Auftrag unterschiedliche manuelle und teilautomatisierte Fertigungsschritte absolviert.
Aufgrund der stark schwankenden Durchlaufzeiten gestaltet sich die Ableitung eines konventionellen Wertstrommodels schwierig. Daher wurde ein datengetriebener Ansatz entwickelt, welcher neben Multimomentaufnahmen und REFA-Zeitstudien auch Daten aus Zeiterfassung und Produkttracking auswertet, um eine bessere Datengrundlage gegenüber herkömmlichen Werksrundgänge herzustellen. Der Ansatz ist generisch gestaltet und kann flexibel an die verfügbaren Datenquellen in produzierenden Unternehmen angepasst werden. Dank der so durchgeführten erweiterten Wertstromanalyse konnten fünf konkrete Maßnahmen zur Optimierung der Produktionsabläufe bei der egf Manufaktur abgeleitet werden. Dazu zählen z.B. Verbesserungen bei der Gestaltung der Arbeitsplätze aber auch die Anpassung der Prozesse zur Fertigungssteuerung.

Manuelles Fassen eines Edelsteins (Quelle: egf Manufaktur)

Betreut wurde das Projekt vom FZI Forschungszentrum Informatik in Karlsruhe in Kooperation mit der egf Manufaktur in Pforzheim. Die egf Manufaktur hat sich auf den Trauringbereich spezialisiert und produziert hochwertige „Made in Germany“-Ringe. Seit über 80 Jahren ist das Unternehmen eines der führenden Produzenten im Trauringbereich. Die egf Manufaktur stellt ihre Ringe ausschließlich in ihrer eigenen Manufaktur in Pforzheim her und setzt dabei eine Kombination aus feiner Handarbeit und modernen Präzisionsmaschinen ein.

 

Hybride Veranstaltungen haben sich als alternatives Veranstaltungsformat in letzter Zeit immer weiter etabliert. Sie kennzeichnen sich dadurch aus, dass sie sowohl physisch vor Ort stattfinden als auch virtuell im Internet. Anders als eine reine Live-Übertragung ins Internet, können Teilnehmende auch virtuell aktiv am Event teilnehmen, u.a. durch Interaktionen mit Referenten und Gästen.

Ein solches Konzept bietet dabei eine Vielzahl an Vorteilen gegenüber klassischen Veranstaltungen. So ist z.B. eine ortsunabhängige Teilnahme möglich, wodurch sich eine größere Reichweite und Anzahl an Teilnehmenden ergibt. Aus organisatorischer Sicht müssen hierfür weniger räumliche Kapazitäten zur Verfügung gestellt werden, was sich positiv auf die Kosten auswirkt. Zusätzlich fallen weniger Reise- und Hotelkosten für Gäste an. Aber auch kleinere Formate können von hybriden Konzepten profitieren. Konferenzen, Tagungen oder Meetings innerhalb oder zwischen Unternehmen können ebenfalls hybrid ausgerichtet werden. Die Möglichkeiten sind vielfältig und werden zunehmend durch den technologischen Fortschritt und neue Softwarelösungen erweitert.

Gegenwärtig erfahren hybride Veranstaltungen eine erhöhte Aufmerksamkeit, da unter den Umständen der COVID-19-Pandemie größere Veranstaltungen im eigentlichen Sinn nicht durchführbar sind. Wie eine Veranstaltung unter diesen Umständen in ein hybrides Format überführt wurde, können Sie hier in unserem Podcast hören. Der jährlich stattfindende Hightech-Summit Baden-Württemberg der bwcon wurde zeitgleich an neun verschiedenen Orten durchgeführt. 1500 Teilnehmende konnten sich somit zu diesem Event zusammenfinden, physisch und virtuell. In unserem Podcast erfahren Sie mehr über die Möglichkeiten und Vorteile von hybriden Veranstaltungen und wie sich damit verbundene Herausforderungen lösen lassen.

Alle Folgen finden Sie auf SoundCloud.