Suchen Kontakt Impressum
Agrar- und Ernährungswiss. Fakultät | Institut für Agrarökonomie
Christian-Albrechts-Universität zu Kiel
Abteilung Innovation und Information

Dienstag, 27. November 2007

Die Delphi-Methode

Stefan Güttler

Die Delphi-Methode wurde in den 50er Jahren in den USA entwickelt und verdankt ihren Namen dem „Orakel von Delphi“. Bei der Delphi-Methode wird eine sorgfältig ausgewählte Expertengruppe wiederholt schriftlich zu zukünftigen Ereignissen, Trends, technischen Entwicklungen und dergleichen befragt. Die anonymen Antworten der einzelnen Teilnehmer werden nach jeder Fragerunde zusammengefasst und allen Teilnehmern zur Verfügung gestellt. Durch die kontrollierte Rückmeldung wird die Interaktion der Gruppe aufrecht erhalten und ein Lernprozess angestoßen, der über eine mögliche Revision der Antworten zu einem verfeinerten Ergebnis der Studie führen soll. Ziel ist die Bildung einer Konsensmeinung. In der Regel wird bereits nach 3 Runden eine hinreichende Konvergenz der Expertenmeinung erzielt. Sollte dies nicht gelingen, können zumindest Meinungsverschiedenheiten aufgedeckt werden.

Diese formale Analysemethode von Zukunftsprobleme findet gerade dann ihre Anwendung, wenn andere (z.B. statistische) Verfahren versagen. Zusätzlich kann sie der Unterstützung anderer Methoden dienen, um Informationen für den Entscheidungsfindungsprozess bereit zu stellen.

Die Delphi-Methode versucht die Vorteile einer Gruppendiskussion zu nutzen und die Nachteile solch einer Befragungsmethode zu vermeiden. Dies gelingt ihr durch folgende drei sie auszeichnende Eigenschaften.

  1. Anonymität: Die einzelnen Experten wissen nicht, wer noch an der Studie teilnimmt bzw. wie die einzelne Einschätzung eines Experten zu einem bestimmten Ereignis ist. So fällt es den Experten leichter ihre Meinung zu revidieren, ohne ihr Gesicht zu verlieren. Zudem kann die Meinung eines einzelnen nicht durch die Meinung eines anderen Experten dominiert werden und der Gruppenzwang, eine Konsenslösung zu finden, wird durch die Anonymität abgeschwächt.
  2. Wiederholte Fragerunden mit kontrollierter Rückmeldung: Zu jeder Fragerunde erhalten die Experten die statistische Auswertung der vorhergegangen Runde sowie zusammengefasste Kommentare. Dies soll einen Lernprozess bei den Teilnehmern anregen und dazu führen, dass die Schätzung durch ein Überdenken und eventuelles Ändern der eigenen Meinung verfeinert wird. Zudem wird durch die Rückmeldung die Interaktion der Gruppe sichergestellt.
  3. Statistische Auswertung: Nach jeder Runde können die Einschätzungen der Experten statistisch ausgewertet werden, z.B. durch die Bildung des Medians sowie der oberen und unteren Quartile. Ist der Quartilabstand (Differenz zwischen oberen und unteren Quartil) relativ „eng“, spricht man von einer Konsensmeinung. Ist er dagegen relativ „weit“, bestehen Meinungsverschiedenheiten zwischen den Experten. Aus bisher durchgeführten Delphi-Studien haben sich folgende Beobachtungen ergeben: Die relative Unsicherheit (Verhältnis von „Quartilabstand“ zu Vorhersagezeitraum) ist recht konstant. Die absolute Unsicherheit wächst dagegen mit der Länge des Vorhersagezeitraums. Ist für eine einzelne Schätzung die relative Unsicherheit wesentlich größer (kleiner) als die durchschnittliche relative Unsicherheit aller erhobenen Fragen, dann ist die Einigkeit in diesem Punkt wesentlich geringer (größer) als in den restlichen Fragestellungen.

Der Vorteil der Delphi-Methode gegenüber einer einzelnen Expertenmeinung kann durch den Delphi-Effekt begründet werden. Der Delphi-Effekt bezeichnet das Phänomen, dass die gemittelte Meinung einer Masse von gleich kompetenten Beobachtern etwas zuverlässigere Vorhersagen ergibt als die eines einzelnen willkürlich herausgepickten Beobachters.

Die Durchführung einer Delphi-Studie sollte sorgfältig durchdacht werden, um ihrer mangelnden Standardisierung (wie z.B. Auswahl und Anzahl der Teilnehmer, Anzahl der Runden, Design der Rückmeldung, etc.) entgegenzuwirken und so die Wahrscheinlichkeit einer erfolgreichen Durchführung zu erhöhen. Des Weiteren kann der Moderator die Studie verfälschen, in dem er seine eigene Meinung in die Rückmeldungen einbringt (Manipulation).

Mit der Delphi-Methode kann nur eine abgegrenzte Problemstellung betrachtet werden. Die Teilnehmer sind nur auf einem begrenzten Gebiet Experten und können nicht alle möglichen Einflüsse aus anderen Bereichen, bzw. Wechselwirkungen von Ereignissen, prognostizieren.

Freitag, 23. November 2007

Trendanalyse

Annika Hartleben, Corina Müller


In Zeiten schnellen Wandels ist es für Unternehmen wichtiger denn je, Trends frühzeitig zu erkennen und entsprechende Handlungsweisen daraus abzuleiten. Im Folgenden werden Methoden zur Trendanalyse im Unternehmen erläutert und kritisch hinsichtlich unseres Beobachtungszeitraums bis 2020 reflektiert.

Grundsätzlich wird ein Trend als Entwicklungs-/Grundrichtung definiert (Brockhaus). Als Analyse wird die systematische Untersuchung bezeichnet, bei der das Objekt in seine Bestandteile zerlegt wird (Wikipedia). Daraus folgt, dass Trendanalysen langfristige Entwicklungen identifizieren und beschreiben.

In Abhängigkeit von ihrer Dauer und Bedeutung lassen sich Trends in verschiedene Kategorien einordnen: Universelle Trends bzw. grundsätzliche Strömungen, wie z.B. das Christentum, werden als Metatrends eingeordnet. Dagegen gehören epochale Veränderungen in ökonomischen und gesellschaftlichen Systemen der Kategorie Megatrends an. Beispiele dafür sind Globalisierung und erhöhtes Gesundheitsbewusstsein. Der Bereich soziokulturelle Trends, der unter anderem Religionen umfasst, wird derzeit durch die Aktualität des Islams hervorgehoben. Veränderungen, die sowohl das soziale Verhalten als auch das Kauf- und Konsumverhalten beeinflussen, wie beispielsweise das Cocooning, gehören in die Kategorie der Konsumtrends. Modetrends sind charakterisiert durch einen besonders kurzen Lebenszyklus (Mini, Schlaghosen). Die vorgestellten Kategorien sind allerdings eng miteinander verknüpft und es bestehen fließende Übergänge.

Eine Methode zur Feststellung von Trends ist die Beobachtung zurückliegender Daten, so genannte Zeitreihen. Lässt sich innerhalb der Daten ein Trend erkennen, kann dieser in die Zukunft fortgeschrieben werden. Durch Ausschalten zyklischen und periodischen Schwankungen sowie unregelmäßigen Restschwankungen können Trends leichter erkannt werden. Mögliche Trend-Kurvenformen können in ihrem Verlauf unter anderem saisonal, linear, logistisch oder exponentiell sein.

Die Zeitreihenanalyse wird in der Regel für einen Zeitraum von bis zu 3 Jahren verwendet und ist daher für eine langfristige Prognose bis 2020 nicht geeignet.

Im Unternehmen kann die Trendanalyse sowohl extern als auch intern eingesetzt werden. Im externen Bereich geht es um das Erkennen von Veränderungen von Verbraucherwünschen (convenience food), Innovationen (GPS) und der Marktlage (Preisanstieg Milchprodukte 2007). Folglich findet die Anpassung des Portfolios (Summe der Produkte und Dienstleistungen) sowie der Marketingstrategie an die konkreten Trends statt. Dies ist wichtig, damit sich das Unternehmen einen Wettbewerbsvorteil am Markt sichern kann. Eine konkrete Herangehensweise von einer ersten Identifikation bis zur Umsetzung besteht aus folgenden vier Schritten: Zunächst müssen Trends erkannt werden, d.h. welche Veränderungen lassen sich beobachten? Daraufhin erfolgt das Filtern von Trends, wobei die wichtigsten Entwicklungen im Bezug auf das Unternehmen festgehalten werden. Im nächsten Schritt wird bewertet, welche Trends sich konkret nutzen lassen, auch im Hinblick auf Lieferanten und Partnerunternehmen. Abschließend wird entschieden, welche Idee am profitabelsten erscheint und daraufhin umgesetzt wird.

Unternehmensintern wird die Trendanalyse zur Projektüberwachung eingesetzt. Eine mögliche Form ist die Meilenstein- Trendanalyse. Als Meilenstein wird hierbei ein als im Voraus gestecktes Zwischenergebnis bezeichnet, d.h. dass zu einem festgelegten Zeitpunkt ein bestimmter Projektstand erreicht sein soll. Durch Vergleich mit dem letzten Meilenstein kann der Projektfortschritt ermittelt werden. Des weiteren können Termin- und Kostenüberschreitungen frühzeitig erkannt und entsprechende Gegenmaßnahmen eingeleitet werden.

Wie auch die oben erwähnte Methode werden diese Betrachtungen nur für einen Zeitraum von zwei bis drei Jahren genutzt.

Zusammenfassend lässt sich sagen, dass die Trendanalyse für das Unternehmen ein wichtiges Werkzeug darstellt, um die Wettbewerbsfähigkeit zu stärken. Die vorgestellten Methoden eignen sich wegen ihres zu kurzen Zeithorizonts allerdings nicht für eine Prognose bis 2020.

In der Agrar- und Ernährungswirtschaft lassen sich die folgenden bedeutsamen Trends erkennen: Moor´sches Gesetz (Verdopplung der Transistorendichte auf einem Mikroprozessor alle 18 – 24 Monate), immer stärker werdende Konzentration im Lebensmitteleinzelhandel, zunehmende Automatisierung von Maschinen, steigende Nachfrage nach Lebensmitteln (durch weiter wachsende Weltbevölkerung) und Globalisierung der Supply– Netzwerke. Zur langfristigen Umsetzung dieser Trends, wird ein hoher Energiebedarf erwartet, wodurch alternative Energiequellen immer mehr an Bedeutung gewinnen werden.

Mittwoch, 21. November 2007

Das S-Kurven-Konzept

Geesa Theessen, Kerstin Urban

Um heutzutage im Wettbewerb bestehen zu können, muss ein Unternehmen immer neue und bessere Technologien auf den Markt bringen. Damit die begrenzt vorhandenen Mittel optimal in die Entwicklung neuer Produkte investiert werden können, ist es notwendig, dass schon im Vorfeld das Potential einer neuen Technologie und der zur Erreichung des Maximums notwendige Forschungs- und Entwicklungsaufwand (F&E-Aufwand) bekannt sind. Solche Zukunftsprognosen sollen mit Hilfe des S-Kurven-Konzeptes frühzeitig vorausgesagt werden können. Dieses von McKinsey in den 60ern entwickelte Konzept beschreibt den Zusammenhang zwischen dem F&E-Aufwand und der Leistungsfähigkeit einer Technologie. Alternativ können auch die Zeit und die Absatzmengen abgetragen werden.

Aus diesem Zusammenhang ergibt sich in der Realität meist ein S-förmiger Kurvenverlauf, der in 3 Phasen (Kindheit, Explosion und Reife) unterteilen werden kann. Die erste Phase ist gekennzeichnet durch hohe Investitionen, die aber nur zu einer geringen Leistungssteigerung der Technologie führen. Gerade die Dauer der 1 Phase, in der hohe Investitionen getätigt werden müssen, wird in der Praxis oftmals unterschätzt. Das Problem in der Phase der Kindheit ist, dass eine hohe Unsicherheit über das Potential der neuen Technologie besteht und dass noch unklar ist, ob die Technologie jemals die Marktreife erreichen wird. Sobald das Schlüsselwissen einer Technologie aber entstanden ist können mit relativ geringem F&E-Aufwand und in relativ kurzer Zeit große Leistungszuwächse erzielt werden. Wenn der Wendepunkt der Kurve erreicht ist, sollte nach neuen Technologien gesucht werden, da in naher Zukunft die Reife-Phase erreicht sein wird, in der Leistungssteigerungen nur noch mit sehr hohem F&E-Aufwand möglich sein werden und sich die vorhandene Technologie einem Limit annähert.

Ein S-förmiger Kurvenverlauf liegt beispielsweise bei der Entwicklung und Verbreitung von Bildschirmen vor. Die Braunsche Röhre wurde bereits 1897 entwickelt, wurde aber erst 1926 als Bildschirm für Fernsehgeräte verwendet. In den darauf folgenden Jahren verbreitete sich der Fernseher zunehmend schneller und die Qualität der Bildübertragung wurde gesteigert. Es war nun mögliche bewegte Bilder in verschiedenen Farben darzustellen. In den 50ern kam die Verwendung als Computerbildschirm hinzu. Heute ist die Technologie des Röhrenbildschirms an seinem Limit angelangt und wird ersetzt durch den auf Flüssigkristalltechnik basierende Flachbildschirm (Quelle: www.wikipedia.de). Damit ist der Sprung auf eine neue S-Kurve vollzogen.

Wie an dem aufgeführten Beispiel ersichtlich, ist es schwierig die Beschriftung der Koordinaten festzulegen. An der Abszisse kann zum einen der F&E-Aufwand aber auch die Zeit abgetragen werden. Schwierig ist es ebenfalls sich auf eine Leistungsvariable festzulegen.

Das größte Problem besteht darin, dass der Kurvenverlauf bereits in der 1. Phase klar sein muss, um das S-Kurven-Konzept sinnvoll als Prognosemittel verwenden zu können. Gerade in dieser Phase besteht aber eine große Unsicherheit über das Potential der neuen Technologie und es ist unklar, ob die Technologie die Marktreife überhaupt erreichen wird oder ob der Durchbruch nicht gelingt. Höcherl geht davon aus, dass die maximale Leistungsfähigkeit einer Technologie leicht geschätzt werden kann und das wenige Punkte (in etwa 3) ausreichen um den Kurvenverlauf bereits in der ersten Phase vorhersagen zu können (vgl. I. Höcherl: “Das S-Kurven-Konzept im Technologiemanagement“, 2001).

Empirische Befunde zeigen, dass sich die Innovationszyklen immer weiter verkürzen. Dies bedeutet für Unternehmen, dass höhere Kosten für die Forschung und Entwicklung und höhere Umstellungskosten entstehen. Folglich werden sich die Innovationszyklen nur noch soweit verkürzen, dass die F&E-Kosten weiterhin gedeckt sein werden. Ein weiterer begrenzender Faktor bei der Zuwachsrate der Technologie wird auch das menschliche Leistungsvermögen sein, sowie die Nachfrage nach innovativen Produkten. Gerade im Bereich der Computer Software wird die Weiterentwicklung durch einen zu geringen Wettbewerb und einer Marktkonzentration gedämpft. Allerdings bleibt fraglich, ob ohne die monopolistische Stellung von Microsoft überhaupt das heutige hohe Niveau erreicht worden wäre.

Montag, 19. November 2007

Zusammenfassung: Hotspots der Futurologie im Web

Katja Kanapin, Ritu Gulati, Kristine Herkströter

Was bedeutet Futurologie?

Einleitend wurde erklärt, was Futurologie ist. Es handelt sich dabei um die Wissenschaft der Zukunft, in Analogie zur Geschichte als Wissenschaft der Vergangenheit. Futurologie wurde von Ossip Kurt Flechtheim begründet und 1943 erstmalig in dem Artikel „Teaching the future“ erwähnt. Flechtheim sagte:„Zukunft ist nicht gestaltbar, sie wird bereits durch ihre Vorhersagen beeinflusst. Es kommt darauf an, systematisch und mit wissenschaftlichen Mitteln wünschenswerte Ergebnisse zu entwerfen.“
Futurologie versucht die positiven Möglichkeiten der Zukunft gegen die negativen Beschränkungen der Vergangenheit durchzusetzen.

Hotspots
Der Begriff Hotspot findet in vielen Bereichen Verwendung. Geprägt wurde er hauptsächlich durch die Telekom. In diesem Zusammenhang versteht man darunter einen Internetzugriffspunkt. Über diesen Punkt kann man an verschiedenen öffentlichen Orten auf das Internet zugreifen (z.B. in Kneipen, Flughäfen, Universität). Im Bereich der Gentechnik findet diese Begrifflichkeit ebenfalls Verwendung. DNA-Stellen werden als Hotspots bezeichnet. An diesen Stellen findet besonders häufig ein Austausch von Basenpaaren statt. Außerdem wird der Begriff Hotspot im Bereich der Geologie verwendet. Gemeint ist damit das Zentrum vulkanischer Aktivität. Diese Erklärung kommt den hier gemeinten Hotspots am nächsten. Besser ausgedrückt handelt es sich bei Hotspots um das Zentrum aktueller
Forschung.
Bei der Dampfmaschine (1769), die Entdeckung von Penicillin (1928) oder auch der Nanotechnologie (1959 erstmals erwähnt) handelt es sich um wichtige Hotspots der Vergangenheit. Weitere wichtige Hotspots waren z.B die Erfindung des Automobils, das Internet, Impfstoffe oder auch der Computer.
Heute sind die Nanotechnologie, Biotechnologie und die Informationstechnologie auf dem Vormarsch. Die zukünftige Entwicklung geht jedoch dahin, dass man die Bereiche miteinander in Verbindung bringt. Alles wird kleiner, Computer werden mit künstlicher Intelligenz versehen, biologische Computer werden gebaut und menschliche Eigenschaften damit simuliert. Ein Beispiel für einen Hotspot der Zukunft ist das „intelligente Haus“. Über den Entwickler des intelligenten Hauses lassen sich verschiedene Quellen auftun. In diesem Zusammenhang
stößt man auf die Firmen Siemens und Microsoft. Verschiedene Funktionen im Haus können via SMS, E-Mail oder Telefon gestartet werden. Diese Kommunikationsmedien dienen als Fernbedienung. Die Geräte im Haus sind untereinander mit einem privaten Netzwerk verbunden. Dadurch wird eine Kommunikation zwischen bisher unabhängigen Geräten und Systemen möglich. Nicht nur der Besitzer kann Kontakt mit seiner Unterkunft aufnehmen,
sondern auch die Unterkunft mit dem Besitzer. Treten Probleme auf, kann der Bewohner das Problem direkt per Telefon, E-Mail oder SMS lösen.
Bei dem Web 3.0 handelt sich um einen weiteren Hotspot. Zurzeit ist das Web 3.0 noch „Zukunftsmusik“, an der Verwirklichung wird jedoch gearbeitet. Beim Web 3.0 wird die Semantik der Inhalte festgelegt. Daten werden verstanden und es kann entsprechend gehandelt werden. Man könnte von einem intelligenten Web sprechen. Dem Internet soll die Verarbeitung und Verknüpfung hinsichtlich der Bedeutung beigebracht werden. Mit dieser künstlichen Intelligenz könnten Suchmaschinen unter Umständen überflüssig werden. Das könnte zum Beispiel wie folgt aussehen:
Man möchte Urlaub an einem warmen Ort machen und das zur Verfügung stehende Budget liegt bei 1000€. Eine weitere Bedingung ist, dass das Haustier mit verreisen soll. Das intelligente Web sucht in einem Schritt die richtige „Lösung“. Ein durchgeplantes Ferienpaket ist das Ergebnis.
Das Thema lässt sich auch kritisch betrachten. Aus bisherigen Entwicklungen gibt es bereits negative Effekte. Auch künftige Entwicklungen lösen bereits Kritik aus. Der Mensch wird immer „durchsichtiger“. Beispiele, die diese Tatsache verdeutlichen sind biometrische Pässe, Überwachungskameras sowie Kontrollen der persönlichen Internetaktivitäten.

Fazit:
Zukünftige Hotspots, beispielsweise das intelligente Haus oder die Nanotechnologie erhöhen die Lebensqualität. Ebenso erhalten wir eine Leistungssteigerung durch Miniaturisierung (siehe z.B. die neuen Handys). Durch Nanotechnologie und Biomedizin erreicht der Mensch eine höhere Lebenserwartung. Medizinischer Fortschritt erleichtert das Leben. An dieser Stelle kann man auf das Zitat von Flechtheim zurückgreifen. „Es kommt darauf an, systematisch und mit wissenschaftlichen Mitteln wünschenswerte Ergebnisse zu entwerfen.“

Diskussion
Im Anschluss fand eine Diskussion über das Thema statt.
Dabei ging es um mögliche Quellen, die einen guten Überblick über das Thema geben. Es wurde festgestellt, dass es zwar viele Quellen gibt, jedoch stammen diese häufig von Internetauftritten verschiedener Firmen. Daher ist ein sensibler Umgang mit den Quellen unumgänglich. Informationen sollten hinterfragt werden, da langfristige Prognosen nur schwer erstellt werden können. Insgesamt ist Futurologie eine interessante, jedoch kritisch zu betrachtende Wissenschaft.
Häufig können Laien bessere Prognosen erstellen. Prognosen über die Zukunft sind von „Störvariablen“ behaftet. Der Mensch hat oftmals keinen Einfluss darauf. Der Mensch kann bis zu einem gewissen Maß seine Zukunft mit gestalten, in einigen Dingen bleibt er jedoch „Spielball der Natur“.