Suchen Kontakt Impressum
Agrar- und Ernährungswiss. Fakultät | Institut für Agrarökonomie
Christian-Albrechts-Universität zu Kiel
Abteilung Innovation und Information

Donnerstag, 13. Dezember 2007

Szenarioanalyse

Ritu Gulati, Kristine Herkströter und Katja Kanapin

Die Szenarioanalyse hat ihren Ursprung im militärischen Bereich. Um die kriegerischen Fähigkeiten im Ernstfall zu trainieren, haben Militärspezialisten Szenarien möglicher Kriegskonstellationen entworfen und Erfolgsaussichten eventueller Strategien ermittelt.

Im unternehmerischen Bereich setzte sich die Szenarioanalyse erst in den 70er Jahren durch. Ausschlaggebend war dabei die Ölkrise im Jahr 1973.

In diesem Zusammenhang sind Szenarien weder Prognosen, noch Prophezeiungen, die auf der Gabe von Propheten beruhen. Bei Szenarien handelt es sich um ausformulierte, hypothetische Zukunftsbilder sozio-ökonomischer Problemfelder. Diese berücksichtigen möglichst viele alternative Entwicklungsmöglichkeiten und werden systematisch entwickelt. Ihre Entstehung ist für andere nachvollziehbar. Diese Szenarien enthalten sowohl qualitative als auch quantitative Aussagen über Zukünfte und dienen der Orientierung sowie der Entscheidungsvorbereitung.

Die Szenarioanalyse an sich ist ein Planungsinstrument. Mit diesem sollen zukünftige Entwicklungen aufgezeigt werden. Drei Grundtypen von Szenarien können dabei entwickelt werden. Dabei handelt es sich um das positive Extrem-Szenario. Dieses modelliert die bestmögliche künftige Entwicklung und beschreibt dabei einen positiv bewerteten Zukunftszustand, dessen tatsächliche Realisierung unwahrscheinlich aber niemals unmöglich sein darf.

Das negative Extrem-Szenario stellt den zweiten Grundtyp dar. Mit diesem soll die schlechtmöglichste Zukunftssituation modelliert werden. Es handelt sich dabei um einen negativ bewerteten Extremzustand. Für diesen gilt, dass er unwahrscheinlich, aber nicht unmöglich sein darf.

Bei dem dritten Grundtypen handelt es sich um das so genannte Trendszenario. Dieser Typ schreibt die heutige, aktuelle Situation in die Zukunft fort. Die Zukunft, die so modelliert wird könnte man auch „verlängerte“ Gegenwart nennen.

Mit dem Szenario-Trichter können die Grundtypen dargestellt werden. Die Schnittfläche des Trichters am Bezugshorizont (beispielsweise das Jahr 2020) beinhaltet alle möglichen Entwicklungen. Darin enthalten sind zum einen der Trend, das positive sowie das negative Extrem-Szenario. Der Weg von der Gegenwart bis zum erreichten Szenario läuft nicht linear, sondern ist durch Störereignisse geprägt. Die folgende Abbildung zeigt den Szenariotrichter. Bei kurzfristiger Zukunft spricht von fünf bis zehn Jahren, mittelfristige Zukunft elf bis zwanzig Jahre und langfristige Zukunft ab 20 Jahre.

(http://lehrerfortbildung-bw.de/kompetenzen/projektkompetenz/
methoden_a_z/szenario/startseite/image002.gif)

Die Szenarioanalyse hat als Zielsetzung die Sammlung und Strukturierung von Informationen bezüglich einer Problemstellung. Ebenso soll die zeitliche Entwicklung wichtiger Einflussgrößen aufgespürt und ihre Auswirkungen auf interessante Szenarien untersucht werden. Das alles dient der besseren Einschätzung von Chancen und Risiken.

Um zum Ziel zu gelangen, unterteilt man die Szenarioanalyse häufig in vier Schritte.

1. Analyse: Dabei findet die Eingrenzung des Untersuchungsgegenstandes statt, also die Festlegung und Strukturierung des konkreten Bereichs der Szenario-Analyse.

2. Projektion: Im zweiten Schritt werden Messgrößen zur Beschreibung festgelegt. Ebenso werden Trends für diese Indikatoren ermittelt. Störgrößen werden mit einbezogen. Aus den Trends und den Störgrößen kann man verschiedene Szenarien als Entwicklungsoptionen erstellen.

3. Auswertung: In diesem Schritt ergeben sich mehrere alternative Zukunftsmöglichkeiten. Diese Rohszenarien werden so aufbereitet, dass sie von der zuvor identifizierten Zielgruppe verstanden werden.

4. Bei dem letzten Schritt handelt es sich um die Verwirklichung: Es wird sich für ein Szenario mit dem dazugehörigen Pfad entschieden. Berücksichtigt werden die gewonnenen Erkenntnisse.

Szenarien lassen sich zudem nach unterschiedlichen Aktions- und Verantwortungsbereichen abgrenzen.

- Unternehmensszenarien: Durch Szenarien erkennen Unternehmen u. a. welche Indikatoren kritisch sind.

- Energieszenarien: Bei den Energieszenarien steht vor allem eine Frage im Vordergrund: Wie lange reicht der heute bekannte Vorrat einer nicht erneuerbaren Ressource unter verschiedenen Nebenbedingungen.

- Branchenszenarien: Das relevante Wissen über Märkte, Branchen und Umweltfaktoren ist in der Regel im Unternehmen vorhanden. Hier kommt es darauf an herauszufinden, auf welche zukünftigen Formen sich eine ausgewählte Branche vorbereiten.

- Weltszenarien: In der aktuellen Diskussion von Weltszenarien wird zur Zeit häufig die Frage gestellt: Welche Einflussfaktoren wirken wie auf das Weltklima?

Man sieht, dass sich diese Methode nicht nur auf Unternehmensszenarien beschränken lässt.

Auch allgemein zukünftige Entwicklungen, wie die Weltszenarien oder Energieszenarien lassen sich ermitteln.

Fazit:

Die Methode zeigt sowohl Vor- als auch Nachteile. Dafür spricht, dass der Hintergrund der Entscheidungsverantwortlichen erweitert wird. Ebenso ist diese Methode, wie vorher schon beschrieben, vielseitig einsetzbar. Die Methode zeigt nicht nur die „Zukunft“, sondern auch einen möglichen Weg dorthin.

Jedoch ist diese Methode mit einem hohen Aufwand verbunden und zudem sind wenig quantitative Aussagen möglich.

Aufgrund der Komplexität können aber auch Fehler auftreten. Obwohl Störvariablen berücksichtigt werden ist diese Methode vor exogenen Schocks, wie z.B. der 11. September oder Weltkrieg, nicht „sicher“.

Globalisierung im Agribusiness

Katja Kanapin, Ritu Gulati, Kristine Herkströter

Globalisierung ist heute ein viel verwendetes Schlagwort und löst verschiedene Reaktionen aus. Einerseits werden mit diesem Begriff Erwartungen verbunden, was weltweiten Wohlstand und Fortschritt angeht. Andererseits löst es Angst aus, besonders vor Arbeitslosigkeit und Sozialabbau, vor Umweltzerstörung und einer Welteinheitskultur.

Was ist eigentlich Agribusiness?

„Agribusiness oder auch Agrobusiness bezeichnet als Anglizismus (aus dem englischen „agriculture“ und „business“) neben der Landwirtschaft auch die vor- und nachgelagerten wirtschaftlichen Aktivitäten. Gemeinsam bilden sie eine Wertschöpfungskette.“ (http://de.wikipedia.org/wiki/agribusiness, Stand: 01.12.07)

„Agribusiness umfasst den Agrarsektor sowie alle vor- und nachgelagerten Industrie- und Dienstleistungsbereiche.“ (http://agrar.uni-hohenheim.de, Stand: 01.12.07)

Diese Definitionen geben wieder, was Globalisierung ist.

„Unter Globalisierung versteht man den Prozess der zunehmenden internationalen Verflechtungen in allen Bereichen (Wirtschaft, Kultur, Umwelt, Kommunikation, etc.). Diese Intensivierung geschieht auf der Ebene von Individuen, Gesellschaften, Institutionen und Staaten.“ (http://de.wikipedia.org/wiki/globalisierung, Stand 01.12.07)

„Unter Globalisierung wird die Veränderung der Weltwirtschaft verstanden, die zu mehr länderübergreifenden Transaktionen führt. Auch im kulturellen und gesellschaftlichen Bereich findet eine Globalisierung statt.“ (http://www.globalisierung-info.de/definition.html, Stand 01.12.07)

Mehrere Ursachen führen zur Globalisierung.

  1. Technischer Fortschritt hat die Transport- und Kommunikationskosten deutlich reduziert.
  2. Fortschritte bei der Liberalisierung des internationalen Güter- und Dienstleistungs-austauschs durch Gatt-Runden und Handelsvereinbarungen. So sind Industriezölle auf unter 10 Prozent gesenkt worden. Weltweit hat man Finanzmarktregelungen abgebaut, so dass sich Wechselkurse und Zinsen heute stärker marktorientiert entwickeln können als früher. Technische Fortschritte haben in Verbindung mit der Liberalisierung die Möglichkeit für Unternehmen geschaffen verstärkt auf internationalen Märkten zu agieren.
  3. Ebenso tragen Politische Ereignisse dazu bei. Der Wegfall des Ostblocks ermöglichte wirtschaftliche Tätigkeiten mit den osteuropäischen Ländern.

Globalisierung führt zu weit reichenden Veränderungen in der Weltwirtschaft. Märkte wachsen zusammen und werden größer.

Folgen treten in verschiedenen Bereichen auf. Durch die Globalisierung ist der Arbeitsmarkt nicht mehr regional, sondern global begrenzt. Die Folge ist eine enorme Steigerung des Arbeitsangebots. Der Faktor Arbeit ist in vielen Bereichen der Welt günstiger als in Westeuropa. (à Billiglohnländer)

Auf dem Gütermarkt führt Globalisierung zu einem größeren Angebot und zu niedrigeren Preisen. Oft können Firmen in den Industrieländern dem Druck nicht mehr standhalten und müssen ihr Handeln anpassen und wandern in Billiglohnländern ab.

Die Gefahr für die Umwelt geht mit dem Wachstum der Weltwirtschaft einher. Schwellenländer ist die Notwendigkeit von Umweltschutz noch unbekannt, bzw. ordnen diesem eine untergeordnete Bedeutung zu.

Die Globalisierung hat auch den Agrarbereich erreicht. Besonders bei verarbeiteten Lebensmitteln. Produktdifferenzierung, sinkende Durchschnittskosten der Produktion und der Wunsch der unvollkommenen Konkurrenz führen dazu. Unternehmen haben die Möglichkeit in andere Länder zu investieren, geringere Transport- und Kommunikationskosten machen dies kostengünstig. Zudem ist die Nachfrage von Seiten der Verbraucher, beispielsweise für Kaffee, frisches Obst, Gemüse und andere Produkte zu jeder Zeit, vorhanden.

Im Bereich der Seefracht sanken die Kosten um 65%. Auch die Kosten für den Lufttransport verringerten sich deutlich. Ebenso fielen die Kosten für Telekommunikation drastisch. Kommunikation war 2005 so günstig wie noch nie zuvor.

Diese Ersparnisse begünstigen Unternehmen und ermöglichen auch eine einfache und kostengünstige „(Zusammen-)Arbeit“ mit dem, bzw. im Ausland.

Im Bereich der Nutzung von Computern und entsprechender Software lässt sich feststellen, dass fast alle Ausbildungsbetriebe in Baden-Württemberg bereits mit einem Computer, 70% davon schon länger als 10 Jahre, ausgestattet sind. 60% der Betriebe besitzen sogar mehrere Computer. Auch die Tabellenkalkulation findet eine hohe Anwendung. Grafikprogramme sowie Datenbanken spielen im Vergleich dazu eine eher untergeordnete Rolle.

Betrachtet man die Internetnutzung stellt man fest, dass dieses hauptsächlich für die Internetversorgung sowie für die Kommunikation verwendet wird. Auch die Internetnutzung für die Geschäftsabwicklung spielt mit 70% der Betriebe eine große Rolle.

Das Ausmaß der Globalisierung lässt sich an der Bedeutung von Direktinvestitionen und Handel erkennen.

Die Globalisierung bringt sowohl Vor- als auch Nachteile mit sich.

Die Globalisierung bietet die Möglichkeit internationalen Handel zu betreiben. Länder und Regionen haben jetzt bessere Möglichkeiten, ihre Produkte abzusetzen und die Entwicklung der Wirtschaft zu fördern. Dies mehrt den Wohlstand. Für den Verbraucher gibt es auch ganz persönliche, greifbare Vorteile: Man kann das ganze Jahr frisches Obst kaufen, es gibt Kaffee und Tee. Die Welt ist aufgrund des Flugverkehrs zusammengerückt und es besteht die Möglichkeit die Welt zu bereisen oder überall in der Welt, aufgrund der Kommunikations-technologie zu telefonieren oder andere Techniken zu verwenden.

Jedoch hat die Globalisierung auch seine Schattenseite. Globalisierung überfordert die Anpassungsfähigkeit vieler Menschen. Arbeitnehmer und auch Unternehmer schaffen es nicht immer sich nicht anzupassen, bzw. ist ihnen das nur schwer möglich.

Zusammenfassend lässt sich sagen, dass es sich bei Globalisierung um einen Prozess und nicht um einen Zustand handelt, der durch mehrere Faktoren begünstigt wird.

Auch der Agrarbereich ist davon betroffen. Technisierung der Betriebe, geringere Zölle und anderes. Die Globalisierung bringt sowohl Vor- als auch Nachteile mit sich. Es ist ein Prozess, der weiterhin anhalten wird.

Dienstag, 4. Dezember 2007

Megatrends der digitalen IT

Geesa Theessen und Kerstin Urban

Megatrends werden dem Zukunftsforscher John Naisbitt nach durch eine bis zu Jahrzehnte lang anhaltende Wirkung und eine nachhaltige Beeinflussung ganzer Kulturen charakterisiert. Bei der Suche nach Trends im Bereich der digitalen Informationstechnik (IT) werden im allgemeinen die Entwicklungen von Hard- und Software betrachtet, die für die Informations- und Datenverarbeitung benötigt werden. Hier geht es nur um digitale IT, da analoge IT zwar denkbar, jedoch nicht für Trends im betrachteten Zeithorizont relevant ist.

Zahlreiche selbst ernannte Visionäre verbreiten über unterschiedliche Medien (z. B. Bücher, Zeitschriften, Web, TV) Prognosen für IT-Megatrends. Zweifelhaft ist jedoch die individuelle Qualifikation und Glaubwürdigkeit dieser Personen. Trotzdem können Einzelne als gute Informationsquellen herangezogen werden, die sich durch qualifizierte Beiträge und wissenschaftlich fundierte Arbeit hervorgetan haben. Ein Beispiel dafür ist Ray Kurzweil, der als einer der bedeutendsten Visionäre im Bereich künstlicher Intelligenz auch mit der amerikanischen „National Medal of Technology“ ausgezeichnet wurde. Er sieht das Eintreten „Technologischer Singularität“ voraus, in dessen Zuge die geistige Kapazität des Menschen nicht mehr mit dem technischen Fortschritt mithalten können werde.

Es haben sich bei der Recherche einige Megatrends herauskristallisiert, die laut Expertenmeinungen im Bereich der IT anhalten werden. Zum einen ist die grundsätzliche Miniaturisierung und Leistungssteigerung zu nennen. So soll „Moore’s Law“ noch weitere 10 bis 20 Jahre gelten, da durch den Übergang von der Mikro- zur Nanotechnologie eine neue S-Kurve und damit neues Potential erreicht werden. Weiterhin steigt die Verwendung eingebetteter Technologien, die vom Nutzer nicht also solche, sondern nur bei Entfaltung ihres Nutzens wahrgenommen werden (z. B. Airbag in der Kleidung, selbst abblendender Spiegel im Auto). Hier ist eine ausgereifte Sensor- und Aktortechnik unentbehrlich, was auch mit dem Trend einer starken Entwicklung leistungsfähiger, flexibler Software einhergeht. Letztere sollte mit der Hardware-Entwicklung einhergehen, um nicht zum begrenzenden Faktor zu werden. Der Trend zur Entwicklung von Multitouch Devices (z. B. Microsoft Surface Computing, Apple iPhone) ist ebenfalls abhängig von fortgeschrittener Software, um die gewünschte Benutzerfreundlichkeit leisten zu können. Weiterhin fortsetzen wird sich auch der Trend zunehmender Vernetzung: Während der Prozentsatz derer in Deutschland, die das Internet nutzen, innerhalb der letzten 10 Jahre von 7 auf mehr etwa 75 % stieg, soll noch eine Rate von nahe 100 % erreicht werden. Dabei steigt die Zahl der Breitbandanschlüsse und es besteht die Tendenz zum „Evernet“ (anytime, anywhere, wireless).

Dabei kommen bei der Nutzung des Internet zunehmend multimediale Anwendungen zum Einsatz und Inhalte können dezentral von allen Nutzern gestaltet werden (Web 2.0). Schließlich bleibt auch die Globalisierung als Trend erhalten, indem sie nicht nur selbst abhängt von IT, sondern umgekehrt auch zahlreiche Ländern einen wesentlichen Beitrag zu IT-Innovationen leisten. Dabei sind soziale Netzwerke eine Erscheinung dieses Trends (z. B. facebook.com, studivz.net etc.). Gerade Unternehmen können aus Investitionen im IT-Bereich Vorteile ziehen, z. B. im Supply Chain Management.

Zusammenfassend können eine vorrangige Bedeutung der Entwicklung von Software und Netzen, sowie eine tendenziell steigende Akzeptanz dieser neuen Technologien durch die Bevölkerung erwartet werden. Oft wird infrage gestellt, ob die Nutzer in der Lage sind, die Potentiale auszuschöpfen. Allerdings ist dies nicht unbedingt notwendig, da nur die speziellen Anforderungen möglichst vieler Personen erfüllt werden sollen. Dabei kann die Komplexität der Technik hinter einer durchdachten Benutzeroberfläche verborgen bleiben. Neue Techniken stellen nun eine Unvermeidbarkeit dar, wobei die Einarbeitungszeit, die der Mensch benötigt, bald der die Verbreitungsgeschwindigkeit hemmende Faktor sein könnte.

Wie viele Mitglieder der Gesellschaft an der Nutzung neuer Techniken teilhaben, hängt sowohl vom Alter, den persönlichen Fähigkeiten und den finanziellen Möglichkeiten ab, als auch von der Bedeutung von Technik in der betrachteten Kultur. Während IT in Indien z. B. besonders unter Statusaspekten bewertet wird, führt sie an anderer Stelle dazu, dass Spezialisierungsvorteile aufgehoben werden. In der Dienstleistungsgesellschaft werden in diesem Zuge paradoxer Weise viele Dienstleistungen wieder von jedem selbst ausgeführt.

Bei fortschreitender technologischer Entwicklung wird – vor allem in einer diesbezüglich eher risikoaversen Bevölkerung, wie in Deutschland – oft die Kontrollierbarkeit der Technik in Zukunft angezweifelt. Dabei geht es nicht nur um die Vorstellung künstlicher Intelligenzen, die eigenständig wird, sondern zunächst auch technische Funktionalitäten, die nicht andauernd von Menschen überwacht werden (z. B. U-Bahnen ohne Fahrer), sowie auch um Sicherheit und Datenschutz. Die Entwicklung des Internet zeigt dabei, dass hier beispielsweise die Nutzung des Netzes und die Gestaltung der Inhalte nicht kontrolliert werden können (und auch nicht sollen).

In jedem Fall müssen bei der Adoption neuer Techniken Chancen und Risiken gegeneinander abgewägt werden, um die Potentiale der herausgearbeiteten Megatrends nutzen zu können, ohne sich komplett auf technische Lösungen zu verlassen.

Dienstag, 27. November 2007

Die Delphi-Methode

Stefan Güttler

Die Delphi-Methode wurde in den 50er Jahren in den USA entwickelt und verdankt ihren Namen dem „Orakel von Delphi“. Bei der Delphi-Methode wird eine sorgfältig ausgewählte Expertengruppe wiederholt schriftlich zu zukünftigen Ereignissen, Trends, technischen Entwicklungen und dergleichen befragt. Die anonymen Antworten der einzelnen Teilnehmer werden nach jeder Fragerunde zusammengefasst und allen Teilnehmern zur Verfügung gestellt. Durch die kontrollierte Rückmeldung wird die Interaktion der Gruppe aufrecht erhalten und ein Lernprozess angestoßen, der über eine mögliche Revision der Antworten zu einem verfeinerten Ergebnis der Studie führen soll. Ziel ist die Bildung einer Konsensmeinung. In der Regel wird bereits nach 3 Runden eine hinreichende Konvergenz der Expertenmeinung erzielt. Sollte dies nicht gelingen, können zumindest Meinungsverschiedenheiten aufgedeckt werden.

Diese formale Analysemethode von Zukunftsprobleme findet gerade dann ihre Anwendung, wenn andere (z.B. statistische) Verfahren versagen. Zusätzlich kann sie der Unterstützung anderer Methoden dienen, um Informationen für den Entscheidungsfindungsprozess bereit zu stellen.

Die Delphi-Methode versucht die Vorteile einer Gruppendiskussion zu nutzen und die Nachteile solch einer Befragungsmethode zu vermeiden. Dies gelingt ihr durch folgende drei sie auszeichnende Eigenschaften.

  1. Anonymität: Die einzelnen Experten wissen nicht, wer noch an der Studie teilnimmt bzw. wie die einzelne Einschätzung eines Experten zu einem bestimmten Ereignis ist. So fällt es den Experten leichter ihre Meinung zu revidieren, ohne ihr Gesicht zu verlieren. Zudem kann die Meinung eines einzelnen nicht durch die Meinung eines anderen Experten dominiert werden und der Gruppenzwang, eine Konsenslösung zu finden, wird durch die Anonymität abgeschwächt.
  2. Wiederholte Fragerunden mit kontrollierter Rückmeldung: Zu jeder Fragerunde erhalten die Experten die statistische Auswertung der vorhergegangen Runde sowie zusammengefasste Kommentare. Dies soll einen Lernprozess bei den Teilnehmern anregen und dazu führen, dass die Schätzung durch ein Überdenken und eventuelles Ändern der eigenen Meinung verfeinert wird. Zudem wird durch die Rückmeldung die Interaktion der Gruppe sichergestellt.
  3. Statistische Auswertung: Nach jeder Runde können die Einschätzungen der Experten statistisch ausgewertet werden, z.B. durch die Bildung des Medians sowie der oberen und unteren Quartile. Ist der Quartilabstand (Differenz zwischen oberen und unteren Quartil) relativ „eng“, spricht man von einer Konsensmeinung. Ist er dagegen relativ „weit“, bestehen Meinungsverschiedenheiten zwischen den Experten. Aus bisher durchgeführten Delphi-Studien haben sich folgende Beobachtungen ergeben: Die relative Unsicherheit (Verhältnis von „Quartilabstand“ zu Vorhersagezeitraum) ist recht konstant. Die absolute Unsicherheit wächst dagegen mit der Länge des Vorhersagezeitraums. Ist für eine einzelne Schätzung die relative Unsicherheit wesentlich größer (kleiner) als die durchschnittliche relative Unsicherheit aller erhobenen Fragen, dann ist die Einigkeit in diesem Punkt wesentlich geringer (größer) als in den restlichen Fragestellungen.

Der Vorteil der Delphi-Methode gegenüber einer einzelnen Expertenmeinung kann durch den Delphi-Effekt begründet werden. Der Delphi-Effekt bezeichnet das Phänomen, dass die gemittelte Meinung einer Masse von gleich kompetenten Beobachtern etwas zuverlässigere Vorhersagen ergibt als die eines einzelnen willkürlich herausgepickten Beobachters.

Die Durchführung einer Delphi-Studie sollte sorgfältig durchdacht werden, um ihrer mangelnden Standardisierung (wie z.B. Auswahl und Anzahl der Teilnehmer, Anzahl der Runden, Design der Rückmeldung, etc.) entgegenzuwirken und so die Wahrscheinlichkeit einer erfolgreichen Durchführung zu erhöhen. Des Weiteren kann der Moderator die Studie verfälschen, in dem er seine eigene Meinung in die Rückmeldungen einbringt (Manipulation).

Mit der Delphi-Methode kann nur eine abgegrenzte Problemstellung betrachtet werden. Die Teilnehmer sind nur auf einem begrenzten Gebiet Experten und können nicht alle möglichen Einflüsse aus anderen Bereichen, bzw. Wechselwirkungen von Ereignissen, prognostizieren.

Freitag, 23. November 2007

Trendanalyse

Annika Hartleben, Corina Müller


In Zeiten schnellen Wandels ist es für Unternehmen wichtiger denn je, Trends frühzeitig zu erkennen und entsprechende Handlungsweisen daraus abzuleiten. Im Folgenden werden Methoden zur Trendanalyse im Unternehmen erläutert und kritisch hinsichtlich unseres Beobachtungszeitraums bis 2020 reflektiert.

Grundsätzlich wird ein Trend als Entwicklungs-/Grundrichtung definiert (Brockhaus). Als Analyse wird die systematische Untersuchung bezeichnet, bei der das Objekt in seine Bestandteile zerlegt wird (Wikipedia). Daraus folgt, dass Trendanalysen langfristige Entwicklungen identifizieren und beschreiben.

In Abhängigkeit von ihrer Dauer und Bedeutung lassen sich Trends in verschiedene Kategorien einordnen: Universelle Trends bzw. grundsätzliche Strömungen, wie z.B. das Christentum, werden als Metatrends eingeordnet. Dagegen gehören epochale Veränderungen in ökonomischen und gesellschaftlichen Systemen der Kategorie Megatrends an. Beispiele dafür sind Globalisierung und erhöhtes Gesundheitsbewusstsein. Der Bereich soziokulturelle Trends, der unter anderem Religionen umfasst, wird derzeit durch die Aktualität des Islams hervorgehoben. Veränderungen, die sowohl das soziale Verhalten als auch das Kauf- und Konsumverhalten beeinflussen, wie beispielsweise das Cocooning, gehören in die Kategorie der Konsumtrends. Modetrends sind charakterisiert durch einen besonders kurzen Lebenszyklus (Mini, Schlaghosen). Die vorgestellten Kategorien sind allerdings eng miteinander verknüpft und es bestehen fließende Übergänge.

Eine Methode zur Feststellung von Trends ist die Beobachtung zurückliegender Daten, so genannte Zeitreihen. Lässt sich innerhalb der Daten ein Trend erkennen, kann dieser in die Zukunft fortgeschrieben werden. Durch Ausschalten zyklischen und periodischen Schwankungen sowie unregelmäßigen Restschwankungen können Trends leichter erkannt werden. Mögliche Trend-Kurvenformen können in ihrem Verlauf unter anderem saisonal, linear, logistisch oder exponentiell sein.

Die Zeitreihenanalyse wird in der Regel für einen Zeitraum von bis zu 3 Jahren verwendet und ist daher für eine langfristige Prognose bis 2020 nicht geeignet.

Im Unternehmen kann die Trendanalyse sowohl extern als auch intern eingesetzt werden. Im externen Bereich geht es um das Erkennen von Veränderungen von Verbraucherwünschen (convenience food), Innovationen (GPS) und der Marktlage (Preisanstieg Milchprodukte 2007). Folglich findet die Anpassung des Portfolios (Summe der Produkte und Dienstleistungen) sowie der Marketingstrategie an die konkreten Trends statt. Dies ist wichtig, damit sich das Unternehmen einen Wettbewerbsvorteil am Markt sichern kann. Eine konkrete Herangehensweise von einer ersten Identifikation bis zur Umsetzung besteht aus folgenden vier Schritten: Zunächst müssen Trends erkannt werden, d.h. welche Veränderungen lassen sich beobachten? Daraufhin erfolgt das Filtern von Trends, wobei die wichtigsten Entwicklungen im Bezug auf das Unternehmen festgehalten werden. Im nächsten Schritt wird bewertet, welche Trends sich konkret nutzen lassen, auch im Hinblick auf Lieferanten und Partnerunternehmen. Abschließend wird entschieden, welche Idee am profitabelsten erscheint und daraufhin umgesetzt wird.

Unternehmensintern wird die Trendanalyse zur Projektüberwachung eingesetzt. Eine mögliche Form ist die Meilenstein- Trendanalyse. Als Meilenstein wird hierbei ein als im Voraus gestecktes Zwischenergebnis bezeichnet, d.h. dass zu einem festgelegten Zeitpunkt ein bestimmter Projektstand erreicht sein soll. Durch Vergleich mit dem letzten Meilenstein kann der Projektfortschritt ermittelt werden. Des weiteren können Termin- und Kostenüberschreitungen frühzeitig erkannt und entsprechende Gegenmaßnahmen eingeleitet werden.

Wie auch die oben erwähnte Methode werden diese Betrachtungen nur für einen Zeitraum von zwei bis drei Jahren genutzt.

Zusammenfassend lässt sich sagen, dass die Trendanalyse für das Unternehmen ein wichtiges Werkzeug darstellt, um die Wettbewerbsfähigkeit zu stärken. Die vorgestellten Methoden eignen sich wegen ihres zu kurzen Zeithorizonts allerdings nicht für eine Prognose bis 2020.

In der Agrar- und Ernährungswirtschaft lassen sich die folgenden bedeutsamen Trends erkennen: Moor´sches Gesetz (Verdopplung der Transistorendichte auf einem Mikroprozessor alle 18 – 24 Monate), immer stärker werdende Konzentration im Lebensmitteleinzelhandel, zunehmende Automatisierung von Maschinen, steigende Nachfrage nach Lebensmitteln (durch weiter wachsende Weltbevölkerung) und Globalisierung der Supply– Netzwerke. Zur langfristigen Umsetzung dieser Trends, wird ein hoher Energiebedarf erwartet, wodurch alternative Energiequellen immer mehr an Bedeutung gewinnen werden.

Mittwoch, 21. November 2007

Das S-Kurven-Konzept

Geesa Theessen, Kerstin Urban

Um heutzutage im Wettbewerb bestehen zu können, muss ein Unternehmen immer neue und bessere Technologien auf den Markt bringen. Damit die begrenzt vorhandenen Mittel optimal in die Entwicklung neuer Produkte investiert werden können, ist es notwendig, dass schon im Vorfeld das Potential einer neuen Technologie und der zur Erreichung des Maximums notwendige Forschungs- und Entwicklungsaufwand (F&E-Aufwand) bekannt sind. Solche Zukunftsprognosen sollen mit Hilfe des S-Kurven-Konzeptes frühzeitig vorausgesagt werden können. Dieses von McKinsey in den 60ern entwickelte Konzept beschreibt den Zusammenhang zwischen dem F&E-Aufwand und der Leistungsfähigkeit einer Technologie. Alternativ können auch die Zeit und die Absatzmengen abgetragen werden.

Aus diesem Zusammenhang ergibt sich in der Realität meist ein S-förmiger Kurvenverlauf, der in 3 Phasen (Kindheit, Explosion und Reife) unterteilen werden kann. Die erste Phase ist gekennzeichnet durch hohe Investitionen, die aber nur zu einer geringen Leistungssteigerung der Technologie führen. Gerade die Dauer der 1 Phase, in der hohe Investitionen getätigt werden müssen, wird in der Praxis oftmals unterschätzt. Das Problem in der Phase der Kindheit ist, dass eine hohe Unsicherheit über das Potential der neuen Technologie besteht und dass noch unklar ist, ob die Technologie jemals die Marktreife erreichen wird. Sobald das Schlüsselwissen einer Technologie aber entstanden ist können mit relativ geringem F&E-Aufwand und in relativ kurzer Zeit große Leistungszuwächse erzielt werden. Wenn der Wendepunkt der Kurve erreicht ist, sollte nach neuen Technologien gesucht werden, da in naher Zukunft die Reife-Phase erreicht sein wird, in der Leistungssteigerungen nur noch mit sehr hohem F&E-Aufwand möglich sein werden und sich die vorhandene Technologie einem Limit annähert.

Ein S-förmiger Kurvenverlauf liegt beispielsweise bei der Entwicklung und Verbreitung von Bildschirmen vor. Die Braunsche Röhre wurde bereits 1897 entwickelt, wurde aber erst 1926 als Bildschirm für Fernsehgeräte verwendet. In den darauf folgenden Jahren verbreitete sich der Fernseher zunehmend schneller und die Qualität der Bildübertragung wurde gesteigert. Es war nun mögliche bewegte Bilder in verschiedenen Farben darzustellen. In den 50ern kam die Verwendung als Computerbildschirm hinzu. Heute ist die Technologie des Röhrenbildschirms an seinem Limit angelangt und wird ersetzt durch den auf Flüssigkristalltechnik basierende Flachbildschirm (Quelle: www.wikipedia.de). Damit ist der Sprung auf eine neue S-Kurve vollzogen.

Wie an dem aufgeführten Beispiel ersichtlich, ist es schwierig die Beschriftung der Koordinaten festzulegen. An der Abszisse kann zum einen der F&E-Aufwand aber auch die Zeit abgetragen werden. Schwierig ist es ebenfalls sich auf eine Leistungsvariable festzulegen.

Das größte Problem besteht darin, dass der Kurvenverlauf bereits in der 1. Phase klar sein muss, um das S-Kurven-Konzept sinnvoll als Prognosemittel verwenden zu können. Gerade in dieser Phase besteht aber eine große Unsicherheit über das Potential der neuen Technologie und es ist unklar, ob die Technologie die Marktreife überhaupt erreichen wird oder ob der Durchbruch nicht gelingt. Höcherl geht davon aus, dass die maximale Leistungsfähigkeit einer Technologie leicht geschätzt werden kann und das wenige Punkte (in etwa 3) ausreichen um den Kurvenverlauf bereits in der ersten Phase vorhersagen zu können (vgl. I. Höcherl: “Das S-Kurven-Konzept im Technologiemanagement“, 2001).

Empirische Befunde zeigen, dass sich die Innovationszyklen immer weiter verkürzen. Dies bedeutet für Unternehmen, dass höhere Kosten für die Forschung und Entwicklung und höhere Umstellungskosten entstehen. Folglich werden sich die Innovationszyklen nur noch soweit verkürzen, dass die F&E-Kosten weiterhin gedeckt sein werden. Ein weiterer begrenzender Faktor bei der Zuwachsrate der Technologie wird auch das menschliche Leistungsvermögen sein, sowie die Nachfrage nach innovativen Produkten. Gerade im Bereich der Computer Software wird die Weiterentwicklung durch einen zu geringen Wettbewerb und einer Marktkonzentration gedämpft. Allerdings bleibt fraglich, ob ohne die monopolistische Stellung von Microsoft überhaupt das heutige hohe Niveau erreicht worden wäre.

Montag, 19. November 2007

Zusammenfassung: Hotspots der Futurologie im Web

Katja Kanapin, Ritu Gulati, Kristine Herkströter

Was bedeutet Futurologie?

Einleitend wurde erklärt, was Futurologie ist. Es handelt sich dabei um die Wissenschaft der Zukunft, in Analogie zur Geschichte als Wissenschaft der Vergangenheit. Futurologie wurde von Ossip Kurt Flechtheim begründet und 1943 erstmalig in dem Artikel „Teaching the future“ erwähnt. Flechtheim sagte:„Zukunft ist nicht gestaltbar, sie wird bereits durch ihre Vorhersagen beeinflusst. Es kommt darauf an, systematisch und mit wissenschaftlichen Mitteln wünschenswerte Ergebnisse zu entwerfen.“
Futurologie versucht die positiven Möglichkeiten der Zukunft gegen die negativen Beschränkungen der Vergangenheit durchzusetzen.

Hotspots
Der Begriff Hotspot findet in vielen Bereichen Verwendung. Geprägt wurde er hauptsächlich durch die Telekom. In diesem Zusammenhang versteht man darunter einen Internetzugriffspunkt. Über diesen Punkt kann man an verschiedenen öffentlichen Orten auf das Internet zugreifen (z.B. in Kneipen, Flughäfen, Universität). Im Bereich der Gentechnik findet diese Begrifflichkeit ebenfalls Verwendung. DNA-Stellen werden als Hotspots bezeichnet. An diesen Stellen findet besonders häufig ein Austausch von Basenpaaren statt. Außerdem wird der Begriff Hotspot im Bereich der Geologie verwendet. Gemeint ist damit das Zentrum vulkanischer Aktivität. Diese Erklärung kommt den hier gemeinten Hotspots am nächsten. Besser ausgedrückt handelt es sich bei Hotspots um das Zentrum aktueller
Forschung.
Bei der Dampfmaschine (1769), die Entdeckung von Penicillin (1928) oder auch der Nanotechnologie (1959 erstmals erwähnt) handelt es sich um wichtige Hotspots der Vergangenheit. Weitere wichtige Hotspots waren z.B die Erfindung des Automobils, das Internet, Impfstoffe oder auch der Computer.
Heute sind die Nanotechnologie, Biotechnologie und die Informationstechnologie auf dem Vormarsch. Die zukünftige Entwicklung geht jedoch dahin, dass man die Bereiche miteinander in Verbindung bringt. Alles wird kleiner, Computer werden mit künstlicher Intelligenz versehen, biologische Computer werden gebaut und menschliche Eigenschaften damit simuliert. Ein Beispiel für einen Hotspot der Zukunft ist das „intelligente Haus“. Über den Entwickler des intelligenten Hauses lassen sich verschiedene Quellen auftun. In diesem Zusammenhang
stößt man auf die Firmen Siemens und Microsoft. Verschiedene Funktionen im Haus können via SMS, E-Mail oder Telefon gestartet werden. Diese Kommunikationsmedien dienen als Fernbedienung. Die Geräte im Haus sind untereinander mit einem privaten Netzwerk verbunden. Dadurch wird eine Kommunikation zwischen bisher unabhängigen Geräten und Systemen möglich. Nicht nur der Besitzer kann Kontakt mit seiner Unterkunft aufnehmen,
sondern auch die Unterkunft mit dem Besitzer. Treten Probleme auf, kann der Bewohner das Problem direkt per Telefon, E-Mail oder SMS lösen.
Bei dem Web 3.0 handelt sich um einen weiteren Hotspot. Zurzeit ist das Web 3.0 noch „Zukunftsmusik“, an der Verwirklichung wird jedoch gearbeitet. Beim Web 3.0 wird die Semantik der Inhalte festgelegt. Daten werden verstanden und es kann entsprechend gehandelt werden. Man könnte von einem intelligenten Web sprechen. Dem Internet soll die Verarbeitung und Verknüpfung hinsichtlich der Bedeutung beigebracht werden. Mit dieser künstlichen Intelligenz könnten Suchmaschinen unter Umständen überflüssig werden. Das könnte zum Beispiel wie folgt aussehen:
Man möchte Urlaub an einem warmen Ort machen und das zur Verfügung stehende Budget liegt bei 1000€. Eine weitere Bedingung ist, dass das Haustier mit verreisen soll. Das intelligente Web sucht in einem Schritt die richtige „Lösung“. Ein durchgeplantes Ferienpaket ist das Ergebnis.
Das Thema lässt sich auch kritisch betrachten. Aus bisherigen Entwicklungen gibt es bereits negative Effekte. Auch künftige Entwicklungen lösen bereits Kritik aus. Der Mensch wird immer „durchsichtiger“. Beispiele, die diese Tatsache verdeutlichen sind biometrische Pässe, Überwachungskameras sowie Kontrollen der persönlichen Internetaktivitäten.

Fazit:
Zukünftige Hotspots, beispielsweise das intelligente Haus oder die Nanotechnologie erhöhen die Lebensqualität. Ebenso erhalten wir eine Leistungssteigerung durch Miniaturisierung (siehe z.B. die neuen Handys). Durch Nanotechnologie und Biomedizin erreicht der Mensch eine höhere Lebenserwartung. Medizinischer Fortschritt erleichtert das Leben. An dieser Stelle kann man auf das Zitat von Flechtheim zurückgreifen. „Es kommt darauf an, systematisch und mit wissenschaftlichen Mitteln wünschenswerte Ergebnisse zu entwerfen.“

Diskussion
Im Anschluss fand eine Diskussion über das Thema statt.
Dabei ging es um mögliche Quellen, die einen guten Überblick über das Thema geben. Es wurde festgestellt, dass es zwar viele Quellen gibt, jedoch stammen diese häufig von Internetauftritten verschiedener Firmen. Daher ist ein sensibler Umgang mit den Quellen unumgänglich. Informationen sollten hinterfragt werden, da langfristige Prognosen nur schwer erstellt werden können. Insgesamt ist Futurologie eine interessante, jedoch kritisch zu betrachtende Wissenschaft.
Häufig können Laien bessere Prognosen erstellen. Prognosen über die Zukunft sind von „Störvariablen“ behaftet. Der Mensch hat oftmals keinen Einfluss darauf. Der Mensch kann bis zu einem gewissen Maß seine Zukunft mit gestalten, in einigen Dingen bleibt er jedoch „Spielball der Natur“.