Posts Tagged ‘Hype-cycle’

Ideenmanagement und Befragungstechniken

Innovative Produkte sind eigentlich in jeder Branche wichtig. Fragt sich, welche Organisationsform besonders innovationsfördernd ist.

Lange ging man davon aus, daß ein großes Netzwerk erforderlich ist. Eine neue Studie zeigt, daß es auch anders geht.


Cloud Computing: Einführung in Kubernetes und Docker

Kubernetes und Docker liefern wichtige Fähigkeiten, die speziell im Cloud Umfeld benötigt werden aber auch On-Promise eingesetzt werden.

Beide Tools sind besonders bei Entwicklern und im DevOps beliebt, lassen sich aber auch in anderen Bereichen einsetzen. Daher sollte man beide Tools einmal gesehen haben.

Heute gibt es eine Kurzeinführung.


Warum Hardwareunternehmen versagen (10 Gründe)

Bei vielen (neugegründeten) Unternehmen besteht das Produktportfolio aus Hardware und aus Software. Dabei kann der Hardwareteil ähnlich komplex werden, wie der Softwareteil.

Es fragt sich, was man falsch machen kann, wenn man Hardware anbieten will.


Cluster Economics

Als Produktmanager in einem globalen Markt stößt man früher oder später auf den Begriff der „Cluster Economics“. Prof. M. Porter ist einer der wichtigsten Vertreter dieser Forschungsrichtung.

Angeregt durch den Artikel „How Economic Clusters Drive Globalization“ aus dem HBR habe ich passende Literatur im Internet zusammengestellt, um mich auf den neuesten Stand zu bringen.


Google’s hybrider Forschungsansatz

Google ist bekannt für seine Kreativität und die vielen neuen Ideen, die das Unternehmen ausprobiert und auf den Markt bringt.

Die Firma gilt deshalb oft als ein Leuchtturm für Unternehmen, die ihre eigene Innovationskraft verbessern wollen. Ein Bericht beschreibt Google’s Forschungsansatz.


Wie Innovation wirklich funktioniert

Eine größere Studie zeigt die Wichtigkeit der Einflussfaktoren der Innovation auf. Die Ideenrate steht erwartungsgemäß weit oben. Doch was beeinflußt den Ideenreichtum eines Unternehmens positiv?


Innovationsstrategien – Das Beispiel Faber-Castell

Wir leben in einer schnelllebigen Zeit, in der viele Unternehmen auf exponentielles Wachstum abzielen, und in der eine disruptive digitale Innovation die Nächste jagt.

Faber-Castell ist über 200 Jahre mit dem sehr alten Produkt „Bleistift“ erfolgreich. Ein Interview zeigt, daß man eine ganz andere Vorgehensweise benutzt, um so erfolgreich zu bleiben.


Machine Learning mit TensorFlow

Neulich habe ich über ein Rechnercluster geschrieben, das man einsetzen kann, um darauf Big Data Szenarien auszuprobieren, und Machine Learning Algorithmen zu testen.

TensorFlow™ von Google ist eine der möglichen Bibliotheken für das Machine Learning, die man auf diesem Cluster einsetzen könnte. Daneben ist die TensorFlow Dokumentation eingängig geschrieben, und kann damit auch Einsteigern helfen, die verstehen wollen, wie solche Szenarien aussehen.


Machine Learning in einem eigenen Rechnercluster

Viele Big Data Szenarien verwenden den sogenannten SMACK-Softwarestack (Spark, Mesos, Akka, Cassandra, und Kafka) als Laufzeitumgebung. Dabei handelt es sich um frei verfügbare Software, die normalerweise auf Rechnerclustern in Datenzentren installiert wird, um dort Big Data Anwendungen durchzuführen.

Der kleine Raspberry Pi bietet eine interessante Möglichkeit, um sich ein eigenes Rechnercluster im Wohnzimmer aufbauen zu können.


Mathematische Optimierung mittels OptaPlanner

Im Rahmen des Maschine Learning werden Verfahren, wie neuronale Netze oder Decision Tree Algorithmen eingesetzt, und es werden damit in vielen Fällen gute Erfahrungen gesammelt.

Für manche Problemstellungen bieten sich aber nach wie vor Optimierungsverfahren aus dem Bereich des Operation Research an. OptaPlanner ist eine offene und dabei mächtige Bibliothek.


Machine Learning mit Apache Spark – Einführung

Ich beschäftige mich zur Zeit mit dem Thema „Machine Learning mit Apache Spark“ und habe am Wochenende in der Computerzeitschrift „iX“ einen sehr informativen Artikel hierzu gelesen, und das Beispielprogramm ausprobiert, das darin vorgestellt wurde.


Mit Digital Analytics und Machine Learning den nächsten Produktivitätsschub realisieren

„Big Data Analytics“ und das „Machine Learning“ sind wichtige Schlüsseltechnologien auf dem Weg zur Industrie 4.0. Richtig eingesetzt, unterstützen sie Unternehmen dabei, den nächsten großen Produktivitätsschub zu realisieren.

Derzeit wird viel darüber geschrieben, und es ist deshalb nicht leicht, den Einstieg in das Thema zu schaffen. Daher fasse ich hier Leseempfehlungen zusammen.


Kursempfehlung „Machine Learning“

Die heutige Kursempfehlung befaßt sich mit dem Themenbereich „Machine Learning“, das derzeit in der Fachwelt heiß diskutiert wird, um Anwendungen intelligent zu machen.


Innovationsstrategie: Emerging Technologies Hype Cycle 2017

In ihrem diesjährigen „Emerging Technologies Hype-Cycle“ setzen die Analysten von Gartner das Thema „Machine Learning“ an die Spitze der Technologien, die sich durch überzogene Erwartungen auszeichnen.

Dinge wie „Augmented Reality“ und „Virtual Reality“ haben das Tal bereits durchschritten, das danach üblicherweise folgt, und stehen kurz vor der Massenanwendung.


Innovationsstrategie: Der Emerging Technologies Hype Cycle

Eine der ersten Fragen auf dem Weg hin zu einer „Innovationsstrategie“ ist die Frage, welche neue Technologien gerade entstehen, und als wie marktreif sich diese Technologien darstellen.

Den (jährlichen) „Emerging Technologies Hype-Cycle“, der von der Firma Gartner herausgegeben wird, gibt es nun schon eine ganze Zeit, und die dort aufgezeigten Einschätzungen erweisen sich bei näherem Hinsehen als realitätsnah.

Es lohnt sich also, einen Blick auf dieses Werkzeug zu werfen.