Posts Tagged ‘Business Case’

Ethik der künstlichen Intelligenz

Wenn Sie sich ein wenig mit dem Thema der künstlichen Intelligenz befassen, werden Sie schnell auf Fragestellungen stoßen, die über die reine Technologie hinausgehen oder auch über die betriebswirtschaftlichen Aspekte.

Über intelligente Algorithmen verleihen wir Maschinen menschliche Fähigkeiten, und fragen uns richtigerweise ob diese Software allen ethischen Aspekten genügt.


Industrie 4.0 – Der Wandel in der Arbeitswelt eine große Herausforderung für Beschäftigte

Das gemeinnützige Weltwirtschaftsforum hat eine Studie veröffentlicht, die zeigt, wie grundlegend sich im Zuge der Digitalisierung gerade die Arbeitsmärkte ändern.

Viele Jobs werden wegfallen, und viele Jobs werden neu entstehen. In Deutschland entsteht aufgrund dieses grundlegenden Wandels gerade ein riesiger Schulungsbedarf.


Anforderungen aus Data Science Projekten

Im Zuge der fortschreitenden Digitalisierung wenden sich immer mehr Unternehmen ihren großen Datenbeständen zu, und versuchen aus diesen Daten geschäftsrelevantes Wissen zu extrahieren. Für solche Auswertungen sind Data Scientists nötig, mit ihrem spezifischen Know How und Techniken.

Fragt sich, wo die Stolpersteine im Bereich Data Science liegen, und was solche Projekte erfolgreich macht.


Machine Learning – Erfahrungen der Fast Movers

Dafür, daß es sich derzeit um eines der meistbesprochenen fachlichen Themen in der IT handelt, blicken die Techniken des maschinellen Lernens auf eine erstaunlich lange Geschichte zurück.

Die Economist Intelligence Unit hat zusammen mit der Firma SAP eine Studie veröffentlicht, die zeigt, wie erfolgreiche Firmen diese Technologie heutzutage einsetzen.


Unternehmensgründung und Wachstum

Junge Unternehmen stehen nicht nur vor der Aufgabe, ein tragfähiges Produkt zu entwickeln, sondern sie müssen sich auch um Aspekte, wie das Marketing oder die Positionierung kümmern.

Ein praxisorientierter Guide kann hierbei helfen.


Arbeitsumgebungen für Machine Learning und Data Science

Data Science Projekte oder Machine Learningmodelle bestehen oft aus einer Vielzahl von Modellelementen oder Detailanalysen, die man zusammen betrachten muss.

In der Praxis ist es keine einfache Angelegenheit, den notwendigen Überblick zu behalten. Zwei interessante Bibliotheken füllen diese Lücke.


„Open Codes“ am ZKM und das Human Brain Project

Über die Ausstellung „Open Codes – Leben in digitalen Welten“ am ZKM in Karlsruhe bin ich auf das „Human Brain Projekt“ gestoßen.

Dieses EU-Projekt erforscht das menschliche Gehirn und Denken. Es bietet darüberhinaus eine Infrastruktur, in der man z.B. mit virtuellen Robotern experimentieren kann.


Ideenmanagement und Befragungstechniken

Innovative Produkte sind eigentlich in jeder Branche wichtig. Fragt sich, welche Organisationsform besonders innovationsfördernd ist.

Lange ging man davon aus, daß ein großes Netzwerk erforderlich ist. Eine neue Studie zeigt, daß es auch anders geht.


Embedded World 2018

In den letzten Tagen war ich auf der embedded world in Nürnberg, und habe mich schwerpunktmäßig für die Themen „Artificial Intelligence“ und „Industrie 4.0“ interessiert. In diesem Beitrag fasse ich einige Highlights zusammen.


Die Ausstellung „Open Codes – Leben in digitalen Welten“ am ZKM

Endlich bin ich am Wochenende in die vielbesprochene Ausstellung „Open Codes – Leben in digitalen Welten“ am ZKM in Karlsruhe gekommen. Dabei handelt es sich um ein neues Konzept, und es geht um die Digitalisierung. Dies sind mindestens zwei gute Gründe, um heute meine Eindrücke zu schildern.


Industrie 4.0 – Trends des Jahres 2018

Anfang des Jahres 2016 hat Professor Klaus Schwab im Handelsblatt einen Artikel über die Trends und Entwicklungen veröffentlicht, die mit der „Industrie 4.0“ verbunden sind.

Derzeit beginnt das Jahr 2018, und wir sind nach wie vor mitten drinnen in diesem Trend. Ich bin davon überzeugt, auch 2018 wird von der „Industrie 4.0“ geprägt sein.


Cloud Computing: Einführung in Kubernetes und Docker

Kubernetes und Docker liefern wichtige Fähigkeiten, die speziell im Cloud Umfeld benötigt werden aber auch On-Promise eingesetzt werden.

Beide Tools sind besonders bei Entwicklern und im DevOps beliebt, lassen sich aber auch in anderen Bereichen einsetzen. Daher sollte man beide Tools einmal gesehen haben.

Heute gibt es eine Kurzeinführung.


Warum Hardwareunternehmen versagen (10 Gründe)

Bei vielen (neugegründeten) Unternehmen besteht das Produktportfolio aus Hardware und aus Software. Dabei kann der Hardwareteil ähnlich komplex werden, wie der Softwareteil.

Es fragt sich, was man falsch machen kann, wenn man Hardware anbieten will.


Cluster Economics

Als Produktmanager in einem globalen Markt stößt man früher oder später auf den Begriff der „Cluster Economics“. Prof. M. Porter ist einer der wichtigsten Vertreter dieser Forschungsrichtung.

Angeregt durch den Artikel „How Economic Clusters Drive Globalization“ aus dem HBR habe ich passende Literatur im Internet zusammengestellt, um mich auf den neuesten Stand zu bringen.


Google’s hybrider Forschungsansatz

Google ist bekannt für seine Kreativität und die vielen neuen Ideen, die das Unternehmen ausprobiert und auf den Markt bringt.

Die Firma gilt deshalb oft als ein Leuchtturm für Unternehmen, die ihre eigene Innovationskraft verbessern wollen. Ein Bericht beschreibt Google’s Forschungsansatz.


Wie Innovation wirklich funktioniert

Eine größere Studie zeigt die Wichtigkeit der Einflussfaktoren der Innovation auf. Die Ideenrate steht erwartungsgemäß weit oben. Doch was beeinflußt den Ideenreichtum eines Unternehmens positiv?


Innovationsstrategien – Das Beispiel Faber-Castell

Wir leben in einer schnelllebigen Zeit, in der viele Unternehmen auf exponentielles Wachstum abzielen, und in der eine disruptive digitale Innovation die Nächste jagt.

Faber-Castell ist über 200 Jahre mit dem sehr alten Produkt „Bleistift“ erfolgreich. Ein Interview zeigt, daß man eine ganz andere Vorgehensweise benutzt, um so erfolgreich zu bleiben.


Industrie 4.0 – Wandel in der Arbeitswelt

Das McKinsey Global Institut hat eine kleine Interviewserie veröffentlicht, die auf die Folgen der Digitalisierung in der Arbeitswelt eingeht.

Und man versucht dort u.a. die Frage zu beantworten, welche Fähigkeiten zukünftige Arbeitnehmer mitbringen müssen, um jobfähig zu bleiben.


Machine Learning mit TensorFlow

Neulich habe ich über ein Rechnercluster geschrieben, das man einsetzen kann, um darauf Big Data Szenarien auszuprobieren, und Machine Learning Algorithmen zu testen.

TensorFlow™ von Google ist eine der möglichen Bibliotheken für das Machine Learning, die man auf diesem Cluster einsetzen könnte. Daneben ist die TensorFlow Dokumentation eingängig geschrieben, und kann damit auch Einsteigern helfen, die verstehen wollen, wie solche Szenarien aussehen.


Machine Learning in einem eigenen Rechnercluster

Viele Big Data Szenarien verwenden den sogenannten SMACK-Softwarestack (Spark, Mesos, Akka, Cassandra, und Kafka) als Laufzeitumgebung. Dabei handelt es sich um frei verfügbare Software, die normalerweise auf Rechnerclustern in Datenzentren installiert wird, um dort Big Data Anwendungen durchzuführen.

Der kleine Raspberry Pi bietet eine interessante Möglichkeit, um sich ein eigenes Rechnercluster im Wohnzimmer aufbauen zu können.


Arbeiten 4.0 – Lebenslanges Lernen

Viele Studien sprechen dafür, daß sich die Berufswelt aufgrund der wachsenden Digitalisierung in den nächsten Jahren grundlegend ändern wird.

Daher wird das lebenslange Lernen immer wichtiger. Der neue Newsletter von PragmaticMarketing.com bring eine weitere Idee: Mitarbeiter sollten konstant auf ihren eigenen Markenwert achten, und diesen fördern.


Mathematische Optimierung mittels OptaPlanner

Im Rahmen des Maschine Learning werden Verfahren, wie neuronale Netze oder Decision Tree Algorithmen eingesetzt, und es werden damit in vielen Fällen gute Erfahrungen gesammelt.

Für manche Problemstellungen bieten sich aber nach wie vor Optimierungsverfahren aus dem Bereich des Operation Research an. OptaPlanner ist eine offene und dabei mächtige Bibliothek.


Machine Learning mit Apache Spark – Einführung

Ich beschäftige mich zur Zeit mit dem Thema „Machine Learning mit Apache Spark“ und habe am Wochenende in der Computerzeitschrift „iX“ einen sehr informativen Artikel hierzu gelesen, und das Beispielprogramm ausprobiert, das darin vorgestellt wurde.


Mit Digital Analytics und Machine Learning den nächsten Produktivitätsschub realisieren

„Big Data Analytics“ und das „Machine Learning“ sind wichtige Schlüsseltechnologien auf dem Weg zur Industrie 4.0. Richtig eingesetzt, unterstützen sie Unternehmen dabei, den nächsten großen Produktivitätsschub zu realisieren.

Derzeit wird viel darüber geschrieben, und es ist deshalb nicht leicht, den Einstieg in das Thema zu schaffen. Daher fasse ich hier Leseempfehlungen zusammen.