Posts Tagged ‘Strategie’

Wie Produktmanager mit Designern erfolgreich zusammenarbeiten

Als MitarbeiterIn im Produktmanagement ist es Ihre Aufgabe, dafür zu sorgen, daß die von Ihnen betreuten Teams den Kunden ein Produkt liefern, das einen Wertbeitrag beiträgt; und dies konstant. Ein zentraler Produktbestandteil ist das Design. Wie ticken Designer eigentlich, und wie arbeitet man mit ihnen zusammen?


Cloud Computing: Einführung in Kubernetes und Docker

Kubernetes und Docker liefern wichtige Fähigkeiten, die speziell im Cloud Umfeld benötigt werden aber auch On-Promise eingesetzt werden.

Beide Tools sind besonders bei Entwicklern und im DevOps beliebt, lassen sich aber auch in anderen Bereichen einsetzen. Daher sollte man beide Tools einmal gesehen haben.

Heute gibt es eine Kurzeinführung.


Kontrolle von Maschinenintelligenz und Bias

In einer Welt, in der sich zunehmend intelligente Software verbreitet, gewinnt eine zuverlässige Qualitätssicherung der Algorithmen an Bedeutung.

Die Frage ist, wie man qualitätssichernde Prozesse sinnvoll in der Organisation verankert.


Warum Hardwareunternehmen versagen (10 Gründe)

Bei vielen (neugegründeten) Unternehmen besteht das Produktportfolio aus Hardware und aus Software. Dabei kann der Hardwareteil ähnlich komplex werden, wie der Softwareteil.

Es fragt sich, was man falsch machen kann, wenn man Hardware anbieten will.


Machine Learning – Empfehlungen für Onlinekurse

Verfahren der Artificial Intelligence, das Machine Learning und das mathematisch-statistische Rechnen finden nach wie vor rasant Verbreitung in der IT.

Wie Sie weiter unten sehen, habe ich Ihnen schon häufiger Empfehlungen für solche Trainings zusammengestellt, an denen ich auch selbst teilnehme.

Derzeit gibt es wieder interessante Lernmöglichkeiten.


Cluster Economics

Als Produktmanager in einem globalen Markt stößt man früher oder später auf den Begriff der „Cluster Economics“. Prof. M. Porter ist einer der wichtigsten Vertreter dieser Forschungsrichtung.

Angeregt durch den Artikel „How Economic Clusters Drive Globalization“ aus dem HBR habe ich passende Literatur im Internet zusammengestellt, um mich auf den neuesten Stand zu bringen.


Google’s hybrider Forschungsansatz

Google ist bekannt für seine Kreativität und die vielen neuen Ideen, die das Unternehmen ausprobiert und auf den Markt bringt.

Die Firma gilt deshalb oft als ein Leuchtturm für Unternehmen, die ihre eigene Innovationskraft verbessern wollen. Ein Bericht beschreibt Google’s Forschungsansatz.


Wie Innovation wirklich funktioniert

Eine größere Studie zeigt die Wichtigkeit der Einflussfaktoren der Innovation auf. Die Ideenrate steht erwartungsgemäß weit oben. Doch was beeinflußt den Ideenreichtum eines Unternehmens positiv?


Big Data und Daten Journalismus

Daten werden nicht nur in den Unternehmen immer wichtiger, sondern auch im Bereich des Journalismus. Ein Google Newsletter gibt einen guten Überblick – und zeigt auch die Sorgen und Nöte der Journalisten mit der Digitalisierung auf.

Diese sind übrigens ganz ähnlich wie die in den Betrieben.


Big Data Rollen und Teams

Universalgenies sind selten, auch im Bereich der Analytics. Die Entwicklung von Big Data Anwendungen, oder auch Machine Learning Projekte erfordern Mitarbeiterteams, die unterschiedliche Rollen ausfüllen.


Innovationsstrategien – Das Beispiel Faber-Castell

Wir leben in einer schnelllebigen Zeit, in der viele Unternehmen auf exponentielles Wachstum abzielen, und in der eine disruptive digitale Innovation die Nächste jagt.

Faber-Castell ist über 200 Jahre mit dem sehr alten Produkt „Bleistift“ erfolgreich. Ein Interview zeigt, daß man eine ganz andere Vorgehensweise benutzt, um so erfolgreich zu bleiben.


Big Data Anwendungen entwickeln und testen

Intelligente Software und Big Data Anwendungen folgen anderen Paradigmen als „normale“ Softwareanwendungen. Daher erfordert ihre Entwicklung eine besondere Vorgehensweise insbesondere im Bereich der Qualitätssicherung.


Machine Learning – Kursempfehlungen

Machine Learning und Data Sciences gehören derzeit zu den heißen Themen in der IT. An beiden Themenbereichen wird schon lange geforscht und gelehrt.

Daher gibt es eine unübersehbar große Menge an guten Materialien, die den Einstieg erleichtern. Ich habe Online Kurse zusammengestellt, die mir geholfen haben, oder, die mir interessant erscheinen.


Machine Learning mit Google Blogs

In der letzten Woche hatte ich Google’s TensorFlow™ als eine der möglichen Bibliotheken für das Machine Learning erwähnt.

Da sehr aktiv in diesem Bereicht, bietet das Unternehmen auf weiteren Gebieten nützliche Inhalte, die sich an Anfänger und Fortgeschrittene in Sachen „Machine Learning“ wenden.


Machine Learning mit TensorFlow

Neulich habe ich über ein Rechnercluster geschrieben, das man einsetzen kann, um darauf Big Data Szenarien auszuprobieren, und Machine Learning Algorithmen zu testen.

TensorFlow™ von Google ist eine der möglichen Bibliotheken für das Machine Learning, die man auf diesem Cluster einsetzen könnte. Daneben ist die TensorFlow Dokumentation eingängig geschrieben, und kann damit auch Einsteigern helfen, die verstehen wollen, wie solche Szenarien aussehen.


Machine Learning in einem eigenen Rechnercluster

Viele Big Data Szenarien verwenden den sogenannten SMACK-Softwarestack (Spark, Mesos, Akka, Cassandra, und Kafka) als Laufzeitumgebung. Dabei handelt es sich um frei verfügbare Software, die normalerweise auf Rechnerclustern in Datenzentren installiert wird, um dort Big Data Anwendungen durchzuführen.

Der kleine Raspberry Pi bietet eine interessante Möglichkeit, um sich ein eigenes Rechnercluster im Wohnzimmer aufbauen zu können.


Mathematische Optimierung mittels OptaPlanner

Im Rahmen des Maschine Learning werden Verfahren, wie neuronale Netze oder Decision Tree Algorithmen eingesetzt, und es werden damit in vielen Fällen gute Erfahrungen gesammelt.

Für manche Problemstellungen bieten sich aber nach wie vor Optimierungsverfahren aus dem Bereich des Operation Research an. OptaPlanner ist eine offene und dabei mächtige Bibliothek.


AstroPi – Interessantes Lernprojekt der ESA

Heute kam in den Nachrichten, daß der Deutsche Alexander Gerst der Kommandant der nächsten Mission der European Space Agency (ESA) sein wird.

Hierzu passt ein schönes Ausbildungsprojekt der britischen ESA, das sich an Jugendliche wendet (und das ich mir schon eine längere Zeit ansehe).


Machine Learning mit Apache Spark – Einführung

Ich beschäftige mich zur Zeit mit dem Thema „Machine Learning mit Apache Spark“ und habe am Wochenende in der Computerzeitschrift „iX“ einen sehr informativen Artikel hierzu gelesen, und das Beispielprogramm ausprobiert, das darin vorgestellt wurde.


Mit Digital Analytics und Machine Learning den nächsten Produktivitätsschub realisieren

„Big Data Analytics“ und das „Machine Learning“ sind wichtige Schlüsseltechnologien auf dem Weg zur Industrie 4.0. Richtig eingesetzt, unterstützen sie Unternehmen dabei, den nächsten großen Produktivitätsschub zu realisieren.

Derzeit wird viel darüber geschrieben, und es ist deshalb nicht leicht, den Einstieg in das Thema zu schaffen. Daher fasse ich hier Leseempfehlungen zusammen.


Kursempfehlung „Machine Learning“

Die heutige Kursempfehlung befaßt sich mit dem Themenbereich „Machine Learning“, das derzeit in der Fachwelt heiß diskutiert wird, um Anwendungen intelligent zu machen.


Innovationsstrategie: Emerging Technologies Hype Cycle 2017

In ihrem diesjährigen „Emerging Technologies Hype-Cycle“ setzen die Analysten von Gartner das Thema „Machine Learning“ an die Spitze der Technologien, die sich durch überzogene Erwartungen auszeichnen.

Dinge wie „Augmented Reality“ und „Virtual Reality“ haben das Tal bereits durchschritten, das danach üblicherweise folgt, und stehen kurz vor der Massenanwendung.


Glanzmomente der Informationstechnik – Das Apolloprogramm

Das Apolloprogramm, und die Mondlandungen waren ganz sicher Glanzmomente der Geschichte, die man nicht so leicht vergißt.

Grund genug, ein wenig in die Vergangenheit zu schauen, und einen Blick auf die damalige IT zu werfen.


Qualität – Codequalität, Debuggingfähigkeit und Infrastruktur

Parameter wie die Codequalität, Debuggingfähigkeit oder die Build-Infrastruktur entscheiden bei großen Projekten letztendlich, wie einfach es ist, die Software zu warten und zu erweitern. Aber auch die Analytics spielt eine wichtige Rolle.