Posts Tagged ‘Business Case’

Arbeitsumgebungen für Machine Learning und Data Science

Data Science Projekte oder Machine Learningmodelle bestehen oft aus einer Vielzahl von Modellelementen oder Detailanalysen, die man zusammen betrachten muss.

In der Praxis ist es keine einfache Angelegenheit, den notwendigen Überblick zu behalten. Zwei interessante Bibliotheken füllen diese Lücke.


„Open Codes“ am ZKM und das Human Brain Project

Über die Ausstellung „Open Codes – Leben in digitalen Welten“ am ZKM in Karlsruhe bin ich auf das „Human Brain Projekt“ gestoßen.

Dieses EU-Projekt erforscht das menschliche Gehirn und Denken. Es bietet darüberhinaus eine Infrastruktur, in der man z.B. mit virtuellen Robotern experimentieren kann.


Ideenmanagement und Befragungstechniken

Innovative Produkte sind eigentlich in jeder Branche wichtig. Fragt sich, welche Organisationsform besonders innovationsfördernd ist.

Lange ging man davon aus, daß ein großes Netzwerk erforderlich ist. Eine neue Studie zeigt, daß es auch anders geht.


Embedded World 2018

In den letzten Tagen war ich auf der embedded world in Nürnberg, und habe mich schwerpunktmäßig für die Themen „Artificial Intelligence“ und „Industrie 4.0“ interessiert. In diesem Beitrag fasse ich einige Highlights zusammen.


Die Ausstellung „Open Codes – Leben in digitalen Welten“ am ZKM

Endlich bin ich am Wochenende in die vielbesprochene Ausstellung „Open Codes – Leben in digitalen Welten“ am ZKM in Karlsruhe gekommen. Dabei handelt es sich um ein neues Konzept, und es geht um die Digitalisierung. Dies sind mindestens zwei gute Gründe, um heute meine Eindrücke zu schildern.


Industrie 4.0 – Trends des Jahres 2018

Anfang des Jahres 2016 hat Professor Klaus Schwab im Handelsblatt einen Artikel über die Trends und Entwicklungen veröffentlicht, die mit der „Industrie 4.0“ verbunden sind.

Derzeit beginnt das Jahr 2018, und wir sind nach wie vor mitten drinnen in diesem Trend. Ich bin davon überzeugt, auch 2018 wird von der „Industrie 4.0“ geprägt sein.


Cloud Computing: Einführung in Kubernetes und Docker

Kubernetes und Docker liefern wichtige Fähigkeiten, die speziell im Cloud Umfeld benötigt werden aber auch On-Promise eingesetzt werden.

Beide Tools sind besonders bei Entwicklern und im DevOps beliebt, lassen sich aber auch in anderen Bereichen einsetzen. Daher sollte man beide Tools einmal gesehen haben.

Heute gibt es eine Kurzeinführung.


Warum Hardwareunternehmen versagen (10 Gründe)

Bei vielen (neugegründeten) Unternehmen besteht das Produktportfolio aus Hardware und aus Software. Dabei kann der Hardwareteil ähnlich komplex werden, wie der Softwareteil.

Es fragt sich, was man falsch machen kann, wenn man Hardware anbieten will.


Cluster Economics

Als Produktmanager in einem globalen Markt stößt man früher oder später auf den Begriff der „Cluster Economics“. Prof. M. Porter ist einer der wichtigsten Vertreter dieser Forschungsrichtung.

Angeregt durch den Artikel „How Economic Clusters Drive Globalization“ aus dem HBR habe ich passende Literatur im Internet zusammengestellt, um mich auf den neuesten Stand zu bringen.


Google’s hybrider Forschungsansatz

Google ist bekannt für seine Kreativität und die vielen neuen Ideen, die das Unternehmen ausprobiert und auf den Markt bringt.

Die Firma gilt deshalb oft als ein Leuchtturm für Unternehmen, die ihre eigene Innovationskraft verbessern wollen. Ein Bericht beschreibt Google’s Forschungsansatz.


Wie Innovation wirklich funktioniert

Eine größere Studie zeigt die Wichtigkeit der Einflussfaktoren der Innovation auf. Die Ideenrate steht erwartungsgemäß weit oben. Doch was beeinflußt den Ideenreichtum eines Unternehmens positiv?


Innovationsstrategien – Das Beispiel Faber-Castell

Wir leben in einer schnelllebigen Zeit, in der viele Unternehmen auf exponentielles Wachstum abzielen, und in der eine disruptive digitale Innovation die Nächste jagt.

Faber-Castell ist über 200 Jahre mit dem sehr alten Produkt „Bleistift“ erfolgreich. Ein Interview zeigt, daß man eine ganz andere Vorgehensweise benutzt, um so erfolgreich zu bleiben.


Industrie 4.0 – Wandel in der Arbeitswelt

Das McKinsey Global Institut hat eine kleine Interviewserie veröffentlicht, die auf die Folgen der Digitalisierung in der Arbeitswelt eingeht.

Und man versucht dort u.a. die Frage zu beantworten, welche Fähigkeiten zukünftige Arbeitnehmer mitbringen müssen, um jobfähig zu bleiben.


Machine Learning mit TensorFlow

Neulich habe ich über ein Rechnercluster geschrieben, das man einsetzen kann, um darauf Big Data Szenarien auszuprobieren, und Machine Learning Algorithmen zu testen.

TensorFlow™ von Google ist eine der möglichen Bibliotheken für das Machine Learning, die man auf diesem Cluster einsetzen könnte. Daneben ist die TensorFlow Dokumentation eingängig geschrieben, und kann damit auch Einsteigern helfen, die verstehen wollen, wie solche Szenarien aussehen.


Machine Learning in einem eigenen Rechnercluster

Viele Big Data Szenarien verwenden den sogenannten SMACK-Softwarestack (Spark, Mesos, Akka, Cassandra, und Kafka) als Laufzeitumgebung. Dabei handelt es sich um frei verfügbare Software, die normalerweise auf Rechnerclustern in Datenzentren installiert wird, um dort Big Data Anwendungen durchzuführen.

Der kleine Raspberry Pi bietet eine interessante Möglichkeit, um sich ein eigenes Rechnercluster im Wohnzimmer aufbauen zu können.


Arbeiten 4.0 – Lebenslanges Lernen

Viele Studien sprechen dafür, daß sich die Berufswelt aufgrund der wachsenden Digitalisierung in den nächsten Jahren grundlegend ändern wird.

Daher wird das lebenslange Lernen immer wichtiger. Der neue Newsletter von PragmaticMarketing.com bring eine weitere Idee: Mitarbeiter sollten konstant auf ihren eigenen Markenwert achten, und diesen fördern.


Mathematische Optimierung mittels OptaPlanner

Im Rahmen des Maschine Learning werden Verfahren, wie neuronale Netze oder Decision Tree Algorithmen eingesetzt, und es werden damit in vielen Fällen gute Erfahrungen gesammelt.

Für manche Problemstellungen bieten sich aber nach wie vor Optimierungsverfahren aus dem Bereich des Operation Research an. OptaPlanner ist eine offene und dabei mächtige Bibliothek.


Machine Learning mit Apache Spark – Einführung

Ich beschäftige mich zur Zeit mit dem Thema „Machine Learning mit Apache Spark“ und habe am Wochenende in der Computerzeitschrift „iX“ einen sehr informativen Artikel hierzu gelesen, und das Beispielprogramm ausprobiert, das darin vorgestellt wurde.


Mit Digital Analytics und Machine Learning den nächsten Produktivitätsschub realisieren

„Big Data Analytics“ und das „Machine Learning“ sind wichtige Schlüsseltechnologien auf dem Weg zur Industrie 4.0. Richtig eingesetzt, unterstützen sie Unternehmen dabei, den nächsten großen Produktivitätsschub zu realisieren.

Derzeit wird viel darüber geschrieben, und es ist deshalb nicht leicht, den Einstieg in das Thema zu schaffen. Daher fasse ich hier Leseempfehlungen zusammen.


Arbeiten 4.0 – Produktivitätswachstum

In vielen entwickelten Volkswirtschaften ist die Geburtenrate schon seit vielen Jahren gering. Das langfristige Wachstum hängt daher vom Produktivitätszuwachs ab.

Dieses Wachstum hat sich aber z.B. in den USA seit 2004 sehr negativ entwickelt. Eine neue Studie zeigt auf, woran das liegen könnte.


Kursempfehlung „Machine Learning“

Die heutige Kursempfehlung befaßt sich mit dem Themenbereich „Machine Learning“, das derzeit in der Fachwelt heiß diskutiert wird, um Anwendungen intelligent zu machen.


Schwerpunktthema Embedded World 2017

Die Embedded World findet jedes Jahr in Nürnberg statt. Ähnlich wie zur Electronica war ich diesmal auf der Embedded World, um mir einen Überblick über die Neuerungen insbesondere in den Bereichen „Embedded Systems“ und „künstliche Intelligenz“ zu verschaffen.


Innovationsstrategie: Emerging Technologies Hype Cycle 2017

In ihrem diesjährigen „Emerging Technologies Hype-Cycle“ setzen die Analysten von Gartner das Thema „Machine Learning“ an die Spitze der Technologien, die sich durch überzogene Erwartungen auszeichnen.

Dinge wie „Augmented Reality“ und „Virtual Reality“ haben das Tal bereits durchschritten, das danach üblicherweise folgt, und stehen kurz vor der Massenanwendung.


Datascience on Apache Spark

Apache Spark™ ist ein Werkzeug zur Verarbeitung und Analyse von großen Datenmengen.

Üblicherweise kommt in Big Data Szenarien, die auf Apache Spark™ laufen, schnell der Wunsch auf, diese großen Datenmengen auch analysieren zu können. Ich habe mir für solche Aufgaben das Statistikpaket „R“ und eine spezielle Bibliothek angesehen, um herauszufinden, ob sich hiermit solche Aufgaben erledigen lassen.