Schirmacher und die manisch-depressive Krisenfixierung: Spiegelredakteur Mohr empfiehlt Zimtsterne statt Finanzcrash-Literatur

Panikstimmung in Deutschland. „Wir sollen plötzlich alle zu Hause bleiben, Billigfutter essen und das Geld zusammenhalten. Was für ein Quatsch“, kontert Spiegelredakteur Reinhard Mohr http://www.spiegel.de/kultur/gesellschaft/0,1518,592628,00.html in seinem Krisenknigge. Nichts sei schlimmer in diesen Tagen als das Starren auf Zahlen und Kurven, die bange Erwartung der Katastrophenmeldungen, die von Organisationen wie OECD, Ifo-Institut und Co. kommen. Schon Hölderlin wusste: „In der Gefahr wächst das Rettende auch“, und tatsächlich: „Gerade in diesen Zeiten einer weltweiten Finanz- und Wirtschaftskrise, die manifest und virtuell ist, materiell greifbar, aber dennoch merkwürdig diffus, hilft der praktische Lebenssinn. Wir sind, trotz Globalisierung und Börsenwahn, freie Menschen aus Fleisch und Blut, mögen die Billionen noch so heiß laufen in den Luftblasen der geplatzten Spekulation. Wir können uns, im Rahmen der jeweiligen Möglichkeiten, entscheiden, das heißt: Wir können handeln“, so Mohr.

Wir seien keine Lehmann Brothers und müssten nicht wie gebannt vor Laptop und Fernsehapparat hocken und auf den nächsten Schlag warten, der unsere schlimmsten Befürchtungen bestätigt. „Doch leider tun wir genau das allzu oft“, moniert Mohr. Als Epizentrum der manisch-depressiven Krisenfixierung hat er den FAZ-Mitherausgeber Frank Schirmacher ausgemacht, der im Feuilleton-Aufmacher der Zeitung schon in der Überschrift empfiehlt: „Gehen Sie jetzt nach Hause!“ Was man dort tun soll, werde allerdings nicht verraten. „Der Apokalypse-Aficionado aus Frankfurt am Main hat sich den luziden Krisen-Tipp bei seinem amerikanischen Lieblingsautor Thomas Friedman (‚Die Welt ist flach’) http://www.thomaslfriedman.com besorgt, viel gelesener Blogger bei der ‚New York Times’. Der hat in einer spektakulären Vor-Ort-Recherche in Manhattans Gaststätten einen dramatischen Befund erhoben: Die Leute gehen einfach weiter essen, so, als wäre nichts geschehen! Unglaublich. Sie verspeisen Thunfisch, Hummer und Steaks, als ginge nicht gerade die Welt unter. Wahrscheinlich kaufen die ‚Sex and the City’-süchtigen Frauen auch noch weiter zehn Zentimeter hohe Pumps, und selbst entlassene Investmentbanker holen sich heimlich den einen oder anderen Hotdog an der Wall Street“, schreibt Mohr.

Ein wenig fühle man sich an Blaise Pascals Wort erinnert, das ganze Unglück der Welt rühre daher, dass die Menschen einfach nicht ruhig zu Hause sitzen bleiben könnten. „Frank Schirrmacher aber sieht hier schon den Sartreschen ‚poète engagé’ am Werke, der sich längst zum ‚économiste engagé’ gewandelt hat und die geistig-moralische Revolution vorbereitet, die offenbar – historisch eine echte Sensation – zu Hause stattfinden soll. Andernfalls, bitte sehr, ‚starren wir in ein tiefes Loch, in das die ganze Welt hineinstürzen könnte’, wie Friedmans Untergangs-Kollege Jeffrey Garten dunkel prophezeit. Dann freilich wäre alles zu spät, und Barack Obama, der neue Heilsbringer, könnte gleich wieder einpacken. Auch sein Thunfischsandwich. Das alles sei natürlich Mumpitz. Spökenkiekerei. Voodoo. Manichäismus pur, Schwarzweißdenken wie im Mittelalter. Himmel oder Hölle. Was eben noch die Apotheose der Shareholder Value war, die Vergöttlichung des schnellen Profits, werde nun zur Religion der Umkehr: vom Turbokapitalismus ins Kapuzinerkloster. ‚Büßer aller Länder, vereinigt euch und macht die letzte Thunfischdose auf’“, frotzelt Mohr.

Die weltweit kolportierte Endzeitstimmung setzt auch nach Ansicht des IT-Experten Udo Nadolski eine gefährliche Abwärtsspirale in Gang. „Dabei waren es die makroökonomischen Zauberlehrlinge der amerikanischen Zentralbank, mit deren Hilfe Staat und Banken ihren faulen Papiergeldzauber praktizierten“, kritisiert Nadolski, Geschäftsführer des Düsseldorfer Beratungshauses Harvey Nash http://www.harveynash.com/de. Konjunkturschwankungen werde es immer geben, vor allem im Zusammenhang mit umwälzenden technischen Erfindungen, aber die verrückten Ausschläge, siedende Hochkonjunktur und Depression, waren immer und überall Ausgeburten des Zentralbanksystems und seiner Kreditexpansion.

„Deshalb ist es an der Zeit, dass die Realwirtschaft die Deutungshoheit in der Öffentlichkeit zurück erobert und die finanzwirtschaftlichen Makroklempner in die Schranken weist“, fordert der Harvey Nash-Chef. Man sollte sich Abstand nehmen vom Chorheulen der Wölfe und antizyklisch agieren: Investieren, konsumieren, Firmen gründen, zukunftsfähige Produkte und Dienstleistungen entwickeln. .„Urteilskraft, Witz und Scharfsinn bringen den guten Einfall hervor, mit dem der Handelnde die drohende Überwältigung durch die Umstände parieren kann. So hat es schon im 17. Jahrhundert der Jesuit Balthasar Gracián in seiner Klugheitslehre beschrieben. Die wirtschaftliche Prosperität ist abhängig von der Summe der Einzelentscheidungen und nicht von den unheilvollen Prognosen der VWL-Statistikakrobaten in den Wirtschaftsforschungsinstituten“, erklärt Nadolski.

Entsprechend fallen die Empfehlungen von Spiegel-Redakteur Mohr aus. „Besuchen Sie das Flusspferdhaus im Berliner Zoo (oder einem Zoo in Ihrer Nähe). Binnen Sekunden haben Sie die allerneueste OECD-Prognose über wachsende Arbeitslosigkeit bis 2010 vergessen“, führt Mohr aus. Das neue Buch von Sahra Wagenknecht „Wahnsinn mit Methode – Finanzcrash und Weltwirtschaft“ sollte man bei Hugendubel einfach links liegen lassen und sich lieber Zimtsterne auf dem Weihnachtsmarkt kaufen, schlägt Mohr vor. 

Advertisements

Erschüttertes Vertrauen: Keine guten Noten für Staatsmedizin in Deutschland

Die Qualität der Gesundheitsversorgung in Deutschland hat sich in den letzten Jahren nach Ansicht der Mehrheit der deutschen Ärzte verschlechtert. 57 Prozent der niedergelassenen Ärzte und Krankenhausärzte, die das Institut für Demoskopie Allensbach http://www.ifd-allensbach.de für den Gesundheitsreport 2008 des Finanzdienstleisters MLP http://www.mlp.de befragt hat, sind überzeugt, dass die medizinische Versorgung in den letzten zwei bis drei Jahren schlechter geworden ist. Trotz dieser negativen Bilanz wird das aktuelle Niveau der Gesundheitsversorgung von den Ärzten allerdings weiterhin überwiegend positiv beurteilt, 80 Prozent der Ärzte sind überzeugt, dass die Gesundheitsversorgung in Deutschland weiterhin „gut“ oder gar „sehr gut“ ist. Dass dieses Niveau auch in Zukunft gehalten werden kann, glauben aber nur die wenigsten. 84 Prozent der Ärzte sind überzeugt davon, dass es in Zukunft schwieriger wird, bei der Behandlung von Patienten alle medizinisch notwendigen Leistungen zu verordnen, fast gleich viele (81 Prozent) erwarten, dass eine Gesundheitsversorgung auf dem heutigen Niveau in zehn Jahren nicht mehr für alle gewährleistet sein wird. Ähnlich groß sind die Befürchtungen, dass einem als Arzt in Zukunft immer weniger Zeit bleibt, sich gut um seine Patienten zu kümmern. 71 Prozent der Ärzte äußern solche Befürchtungen. Schon heute klagen viele (46 Prozent) über mangelnde Zeit für die Patienten. Bei den Krankenhausärzten (56 Prozent) ist das sogar für mehr als jeden Zweiten (56 Prozent) ein akutes Problem.

Dieses unbefriedigende Gefühl und die Befürchtung einer weiteren Verschlechterung gehen einher mit der Sorge, dass in Zukunft nicht mehr genügend Ärzte zur Verfügung stehen werden, dass es demnächst zu Versorgungsengpässen kommen wird. Denn die jetzt schon schwierigen und fortschreitend schwieriger werdenden Bedingungen der Berufsausübung werden sicherlich dafür sorgen, dass der Arztberuf immer unattraktiver wird. Eine Mehrheit von 53 Prozent der Ärzte erwartet das. Nur jeder dritte würde einem jungen Mediziner in Ausbildung anraten, sich als Arzt niederzulassen. Für die Mehrheit der Ärzte scheint ein Ärztemangel und Pflegenotstand unausweichlich zu sein. In Westdeutschland rechnen 59 Prozent, in Ostdeutschland 94 Prozent aller Ärzte in ihrer Region damit. Vor allem Ärzte aus ländlichen Gebieten und mittelgroßen Städten befürchten, dass es bei ihnen vor Ort schon bald zu wenig Ärzte geben wird. Rund drei Viertel aller Ärzte rechnen zudem mit einem zunehmenden Mangel an ausgebildeten Fachkräften im Pflegebereich. „Die Ergebnisse zeigen jedes Jahr deutlicher, wie stark die Bürger das Vertrauen in das Gesundheitssystem verlieren“, sagte MLP-Vorstandchef Uwe Schroeder-Wildberg, bei der Vorstellung der Studie in Berlin. Das untermauere den nach wie vor hohen Reformbedarf.

Nach Ansicht von Professor Jörg-Dietrich Hoppe, Präsident der Bundesärztekammer, sprechen die Ergebnisse des Gesundheitsreports eine deutliche Sprache: „Das Vertrauen in die Zukunftsfähigkeit der Gesundheitspolitik ist nachhaltig erschüttert. Die Menschen spüren, dass die finanziellen und personellen Ressourcen nicht mehr ausreichen, um das derzeit noch hohe Niveau der Versorgung aufrechtzuerhalten. Der staatsmedizinische Ansatz ist vollständig diskreditiert. Wenn wir den medizinischen Fortschritt auch in einer Gesellschaft des langen Lebens erhalten wollen, brauchen wir eine nachhaltige Gesundheitspolitik, die im Gesundheitswesen nicht nur einen Kostenfaktor sieht“.

Der Kölner Ernährungsexperten Ulrich Overdiek hält es für falsch, in Fragen der Gesundheit nur den Staat ins Visier zu nehmen: „Die demografische Entwicklung wird dazu beitragen, dass das Thema Gesundheit aus einem ganz anderen Blickwinkel als heute betrachtet werden muss: es wird immer mehr pflege- und versorgungsbedürftige Menschen geben. Sie stehen einer immer kleiner werdenden Gruppe von jüngeren Menschen gegenüber, die das System finanziell trägt. Zukünftig wird es deshalb unerlässlich sein, dass die Bevölkerung in Deutschland deutlich mehr eigene Verantwortung für ihre Gesundheit übernimmt“, fordert Overdiek, Geschäftsführer von vivamangiare http://www.vivamangiare.de. Inzwischen seien 67 Prozent der Menschen übergewichtig oder stark übergewichtig. „Die Spätfolgen von Übergewicht belasten dann das Gesundheitssystem in Form von Diabetes, Erkrankungen des Bewegungsapparates und des Immunsystems“, weiß Overdiek. Die unzähligen Diäten, die es mittlerweile auf dem Markt gibt, würden nur wenig helfen. Eine ausgewogene Ernährung verspreche deutlich mehr Erfolg.  

 


IT-Dienstleister beurteilen ihre Geschäftslage so optimistisch wie im Boomjahr 2000

Die Einschätzung der Geschäftslage der IT-Dienstleister ist nach einer Umfrage des DIHK zur Zeit genauso gut wie im Boomjahr 2000. Im Vergleich Mit einem Lagesaldo von 38 Prozentpunkten reduziert die IT-Branche zwar ihre Lageeinschätzung um zwölf Prozentpunkte gegenüber dem Frühjahr 2008. Nach wie vor verspüren die Serviceanbieter den Nachfragesog vor allem durch Unternehmen und Behörden, die ihre Abläufe weiter digitalisieren.46 Prozent der Unternehmen schätzen ihre Geschäftslage als „gut“ ein, ebenfalls 46 Prozent bewerten die Lage als „befriedigend“ und acht Prozent bekunden eine Lageverschlechterung. Im Frühjahr schätzte mehr als jeder zweite IT-Dienstleister seine Geschäftslage als „gut“ ein – eine Verschlechterung gaben zu diesem Zeitpunkt sechs Prozent zu Protokoll.

Im Herbst 2008 blicken 36 Prozent der befragten Unternehmen optimistisch in die Zukunft. Bei der Vorumfrage erwarteten 43 Prozent bessere Geschäfte in den nächsten zwölf Monaten. Die Anzahl der Pessimisten ist von sieben Prozent im Frühjahr auf derzeit zwölf Prozent angestiegen. Die Unternehmen gehen davon aus, dass der Markt für IT-Dienstleistungen weiter wächst und dass der Digitalisierungstrend von Geschäftsprozessen auch im nächsten Jahr weiter anhält.

Das Auslandsgeschäft wird im nächsten Jahr erneut zulegen. Mit einem Ausfuhrsaldo von 28 Prozentpunkten weist die IT-Branche zwar vergleichsweise gute Exporterwartungen aus. Jedoch ist der Abwärtstrend des Ausfuhrsaldos seit dem Frühjahr 2006, anfangs langsam und in kleinen Schritten, nun in einem größeren Schritt erkennbar. Gegenüber dem Frühjahr verzeichnet der Saldo einen Rückgang in Höhe von zehn Prozentpunkten. 35 Prozent der Unternehmen rechnen mit höheren Exporten, gegenüber 43 Prozent im Frühjahr 2008. Aktuell erwarten sieben Prozent der Unternehmen einen Exportrückgang, vor sechs Monaten waren es noch fünf Prozent.

Auch im nächsten Jahr gehen von der IT-Branche Impulse für Investitionen aus. Ein Viertel der Unternehmen beabsichtigt in den nächsten Monaten mehr zu investieren – nach 31 Prozent im Frühjahr und 34 Prozent vor einem Jahr. Dagegen bekunden nur 13 Prozent der Betriebe restriktive Investitionspläne – nach ebenfalls 13 Prozent vor sechs Monaten und zwölf Prozent vor einem Jahr. 43 Prozent der IT-Dienstleister beabsichtigen im nächsten Jahr in Produktinnovationen zu investieren, 51 Prozent geben an, dass sie in neue Anlagen investieren werden.  

Der Dienstleistungsreport kann unter folgender URL runtergeladen werden: http://www.dihk.de/inhalt/download/dienstleistungsreport_herbst_2008.pdf



Elektronische Nasen erschnüffeln Krankheiten, Plagiate, Parodontose und Sprengstoff – Mikrosensoren als Alleskönner

Elektronische Nasen“ halten Einzug in das Geschäfts- und Wirtschaftsleben. Die Lebensmittelbranche ist nach einem Bericht des Bonner Fachdienstes Zukunftsletter http://www.zukunftsletter.de ebenso brennend an Geruchsgeräten interessiert wie die pharmazeutische Industrie einschließlich der Kosmetikfirmen, der Automobilhersteller, der Bauindustrie und des Umweltschutzes. Die Einsatzmöglichkeiten reichen vom Schnüffeln nach verstecktem Sprengstoff bis zur Kasse im Supermarkt. Sensoren, die auf Gase in der Luft chemisch reagieren und die Reaktion elektrisch weiterleiten, sind seit den 90er Jahren auf dem Markt und im industriellen Einsatz.

„Jetzt aber werden die E-Nasen immer billiger und für jeden Kühlschrank verfügbar. 2020 könnten die Preise für durchaus anspruchsvoll arbeitende Geruchs-Sensoren bei unter einem US-Dollar liegen. Der Grund dafür liegt in der Weiterentwicklung von Drucktechnologien. Als Basis für die Geruchssensoren dienen elektrisch leitfähige Polymere. Sie lassen sich durch neue Technologien schneller, einfacher und billiger auftragen – vor allem auf einem Chip. Ein spezieller Mikrochip wird uns beispielsweise schon morgens beim Zähneputzen sagen, ob wir von Parodontose, Mundfäule oder einer Zahnfleischinfektion befallen sind“, so Zukunftsletter-Chefredakteur Matthias Horx.

Möglich wird das durch die „Karlsruher Mikronase” von Joachim Goschnick vom Forschungszentrum  Karlsruhe (FZK) http://www.fzk.de: ein Chip so groß wie eine Cent-Münze mit 38 graduell unterschiedlichen Gas-Sensor-Segmenten. Für eine interessante Anwendung hat sich der amerikanische Kassen-Hersteller NCR ein Patent gesichert. Das Unternehmen will E-Nasen in Supermarktkassen  einbauen. Produkte, die nicht verpackt und mit Preisen ausgezeichnet sind, also beispielsweise Früchte und Gemüse, werden kurz in eine Kammer gelegt. Dort werden sie nicht nur gewogen, sondern eine  elektronische Nase erschnüffelt auch ihre Identität. Ein Computer zeigt anschließend den Preis an und  verbucht die Ware.

Als erster Automobilhersteller überprüft Ford die Ausdünstungen der Innenraum-Materialien mithilfe einer elektronischen Nase und setzt sie auch für die Routinekontrolle im  Produktionsprozess ein. Eingearbeitete Mikrokapseln melden über Duftsignale die Abnutzung von Maschinenteilen. So müssen Produktionsmaschinen nicht mehr regelmäßig angehalten werden, um deren Abrieb zu  kontrollieren. Solche „intelligenten“ Sensor-Schichten können auf Scharniere, Lager, Kugellager oder  Motorenteile aufgetragen werden. CDs und Designermode werden bald mit Duftstoffen besprüht, die sie von Piratenware unterscheiden. Die Bundesdruckerei in Berlin hat eine „elektronische Nase“ vorgestellt,  mit deren Hilfe Originale von Fälschungen unterschieden werden können. „Die verfeinerten E-Nasen sind mittlerweile sogar in der Lage, unterirdische Stoffe zu erschnüffeln: Landminen oder versteckte Kampfstoffe, aber auch versickertes Altöl oder andere Verunreinigungen“, weiß Trendforscher Horx. Im Krankenhaus sollen E-Nasen in Zukunft „Superbugs“ erspüren, also lebensgefährliche  Infektionen mit resistenten Bakterien wie etwa Staphylokokken. Der Geruchstest soll helfen, eine  drohende Infektionswelle schneller einzudämmen, denn die Geruchsanalyse dauert nun nicht mehr Tage,  sondern nur eine Viertelstunde.

E-Nasen könnten in Zukunft auch als Schlüsselkomponente eines  telemedizinischen Systems dienen. Via Computer und Datenleitung könnten nicht nur Töne und Bilder,  sondern auch Gerüche von einem Krankenhaus zum anderen zu übertragen werden. Die E-Nase erschnüffelt außerdem bösartige Veränderungen der Haut. Wenn die Tumore sehr früh erkannt werden,  bestehen meist gute Heilungschancen. Die Diagnose wird heute durch eine Untersuchung von  entnommenem Gewebe gestellt. Das könnte sich künftig ändern, denn Wissenschaftler haben ein  Verfahren entwickelt, um Basaliome anhand ihres charakteristischen Geruchs aufzuspüren. „Verfeinerte Sensortechnik und neue Messprinzipien sind nicht der einzige Grund für die großen Fortschritte beim apparativen Schnüffeln. Wesentlichen Anteil hat die Computertechnologie. Sie wird in den nächsten 10 bis 15 Jahren einen Riesenschub bei der E-Technologie auslösen“, so der Ausblick von Horx. 

Willkommen in den 50er Jahren: Personalentwicklungskonzepte aus dem letzten Jahrhundert lassen Unternehmen alt aussehen – Netzwerkeffekte verändern die Arbeitswelt

Die meisten deutschen Unternehmen versprühen noch den Charme der 50er Jahre, wenn es um Arbeitsstrukturen geht. Hoch qualifizierte Fachkräfte können sie damit in Zukunft nicht mehr halten: „Mit den gängigen Konzepten können Unternehmen keinen Blumentopf mehr gewinnen, und schon gar keine Top-Kandidaten“, so Uwe Zirbes, Chef von der Firma „hunting heads International“ www.huntingheads.de in Wetter an der Ruhr. Die Firmen sollten erst mal ihre Hausaufgaben machen und zeitgemäße Arbeitsplätze schaffen, doch fast alle meinen, das fängt beim Gehalt an und hört auch dort schon wieder auf , sagt Zirbes. So berichtet das CIO-Magazin http://www.cio.de, dass mindestens 90 Prozent des Arbeitsmarktes noch immer auf das Familienleben und den Lebensrhythmus der ersten Hälfte des 20. Jahrhunderts zugeschnitten seien. Ein Konzept der Beratungsfirma Deloitte http://www.deloitte.com soll die Unternehmen nun ins 21. Jahrhundert befördern: In jeder Phase des Arbeitslebens werden Arbeitspensum, Arbeitszeit, Arbeitsort und die Position des Mitarbeiters mit dem Tempo der Karriere verbunden. In ihrem Buch „Individualisierte Karriereplanung“ (Campus Verlag) resümieren die Deloitte-Beraterinnen Cathleen Benko und Anne Weisberg: In einer wissensorientierten Wirtschaft ähnele die Karriereentwicklung einer Sinuskurve, einer Wellenbewegung von steigenden und fallenden Phasen. Sechs gesellschaftliche Trends machen sie als Ursache dafür aus. Die sinkende Zahl qualifizierter Mitarbeiter, veränderte Familienstrukturen, mehr weibliche Arbeitnehmer und andere Erwartungen der Männer. Zudem spielte die Internet-Generation und die Informationstechnik eine Rolle. Die jüngere Generation habe ein höheres Technik-Verständnis und beschleunige den Wandel des Arbeitslebens: Von zu Hause aus zu arbeiten, während der Woche blauzumachen und dafür samstags ins Büro zu gehen, in der Arbeitszeit private E-Mails zu verschicken – das werde zur Selbstverständlichkeit. Hierarchien und Status verlieren an Bedeutung. Sind Kinder geplant, ist es auch für die jungen Männer wichtig, sie nicht nur am Sonntag zu sehen.

Als Fazit dieser Entwicklung zitieren die Beraterinnen den ehemaligen Dekan der Harvard Business School Kim B. Clark. Er fordert Unternehmen auf, sich so zu verändern, dass sie begabten Mitarbeiterinnen und Mitarbeitern aktiv und loyal verbunden bleiben. Dazu ein Beispiel: Gary ist 27, ledig und hat einen MBA-Abschluss, als er seinen ersten Job als Assistenzproduktmanager antritt. In den ersten drei Jahren drückt der junge Mann auf die Tube: Bei Geschwindigkeit, Pensum und Arbeitszeit zieht er alle Register, während seine Position und Verantwortlichkeit nicht stark ausgeprägt ist. Wenige Jahre später wird Gary Vater und schraubt Geschwindigkeit und Pensum zurück. Noch später, als die Kinder alt genug sind für die Uni, fährt er seine Karriere wieder hoch. Jetzt zeigt auch der Pegel im Feld Position und Verantwortung nach oben.

Der Job muss sich also auch den Lebensbedingungen anpassen. Gelingt es dem Unternehmen, gemeinsam mit dem Mitarbeiter flexible Lösungen zu finden, bleiben dessen Kompetenz und Erfahrung im Haus. Der materielle und immaterielle Verlust durch Fluktuationen sinkt. „Hoch qualifizierte Manager kann man nicht mehr mit der alten industriekapitalistischen Denkweise beeindrucken. Die traditionellen Konzepte von Henry Ford und Frederick Taylor gehören in die Mottenkiste“, bestätigt Uwe Zirbes. Die Netzwerkeffekte des Internets, der mobilen Kommunikation und die Intelligenz der Vielen im Web 2.0 würden auch vor der Arbeitswelt nicht halt machen. „Feste Arbeitszeiten, Abteilungsgrenzen, beschränkte Kompetenzen, Befehl und Gehorsam, Controlling-Zahlenfetischismus, Meetingterror und die Bewahrung von Herrschaftswissen gehören der Vergangenheit an“, sagt Zirbes. Wer das im Top-Management nicht begreife, verliere den Wettbewerb um die besten Köpfe.

Virtuelles Fräulein vom Amt – Sprachgesteuerte Handys als Tipping Point des Internets

Die Sprachsteuerung des iPhones mit „Google Mobile App“ http://googlemobile.blogspot.com wird von Web 2.0-Pionier Tim O’Reilly als „Tipping Point“ gewertet: Der Begriff  bezeichnet jenen Moment, in dem etwas Einzigartiges zum Normalzustand wird und einen qualitativen Umschlagspunkt markiert. „Es ist es an der Zeit, Telefone als erstklassige Geräte zu sehen, um auf das Internet zugreifen zu können, und nicht nur als Möglichkeit, Inhalte und Anwendungen umzuwidmen, die ursprünglich dazu gedacht waren, mit einer Tastatur und einem Bildschirm gelesen zu werden“, schreibt O’Reilly in seinem Blog http://radar.oreilly.com. Mit der Sprachsteuerungsfunktion werde ein neuer Weg für Computerdienstleistungen beschritten. „Apple begeisterte uns mit dem iPhone-Touchscreen, aber die Einbeziehung des Beschleunigungsmessers war fast ebenso wichtig; und jetzt hat Google uns gezeigt, wie dieser als Hauptkomponente einer Benutzeroberflächenanwendung eingesetzt werden kann. Legen Sie das Telefon ans Ohr und die Anwendung fängt an mitzuhören; eher durch eine natürliche Geste als durch ein künstliches Klopfen oder Klicken ausgelöst. Ja, der Beschleunigungsmesser wurde bereits in Spielen wie tilt oder the iPint verwendet, aber Google hat das Ganze noch etwas weiter getrieben durch die Integration des Telefon-Hauptsensors: das Mikrofon“, so O’Reilly. Nach seiner Ansicht liegt hier die Zukunft von Mobiltelefonen: eine Benutzeroberfläche zu entwickeln, die alle bisherigen Generationen über Bord wirft. Zeigen und klicken war ein Durchbruch für Computer, aber eine Sackgasse für das Design von Benutzeroberflächen.  

Mittlerweile haben das iPhone und ähnliche Smartphones eine Vielzahl an Sensoren: Mikrofon, Kamera, Touchscreen, Beschleunigungsmesser, und Standortortung. Neue Anwendungen und Kombinationen werden zu weiteren Überraschungen führen. „Künftige Geräte werden eine immer größere Anzahl an Sinnen haben, um darauf zu achten, was wir wollen. Könnte ein Telefon die Bewegung erkennen, die wir machen, wenn wir eine Kamera vor uns hochhalten, damit wir die Einstellungen festlegen können? Könnten wir mit dem Telefon reden um Kameraeinstellungen zu verändern? Könnte ein Telefon automatisch die Bewegung eines Autos erkennen und auf Sprachwahl umstellen? Und dann gibt es natürlich noch alle weitere Interaktionen mit anderen Geräten die möglich sind, wenn wir das Telefon als Steuerteil betrachten – ähnlich der Wii-Konsole von Nintendo“, erklärt O’Reilly. 

Auch in der ITK-Branche erwartet man Impulse über die Sprachsteuerung: „Computer werden heute immer noch primär über eine Tastatur bedient, die aus der Schreibmaschine entstanden ist, so als ob jeder Tastendruck einen mechanischen Hebel in Bewegung setzt. Selbst der Zeilenvorschub und Wagenrücklauf alias Carriage return ist uns erhalten geblieben, obwohl damit schon lange kein Papier mehr transportiert wird. Telefone haben zwar die Revolution von der Wählscheibe hin zur – in der Regel – 3×4 Tastatur gemacht, standardisiert nach ITU E.161, das erfolgte aber bereits in den 70er Jahren. Selbst moderne Handys und Smartphones halten sich noch an den Tastenwahlblock, entweder in mechanischer Ausführung oder als Icon-Darstellung auf einem Touchscreen“, weiß Andreas Latzel, Deutschland-Chef des ITK-Spezialisten Aastra http://www.aastra.de, der viel Wert auf die Benutzerfreundlichkeit seiner Systeme legt. Die Technikentwicklung sei zwar rasant schnell und ein gutes User-Interface inzwischen intelligent sowie kontextbezogen – im Kern aber immer noch traditionell. Vorhersehbar sei, dass der Tastaturblock an seine Grenzen stoße – spätestens mit der breiten Einführung der SIP-Telefonie und der SIP-Teilnehmeradressen.

„Anders als bei professionellen Tischgeräten kommt die Ausstattung von Handys mit alphanumerischen Tastaturen zwar auch vor, ist aber in der Regel wegen der beschränkten Abmessungen nicht befriedigend. Da bietet sich der Weg zum Sprachinterface an: der Ansage von Adressen oder Einträgen des Telefonbuchs in normaler Sprachform. Sinnvoll ist das beim Autofahren oder anderen Tätigkeiten, die beide Hände verlangen. Ein gutes Beispiel im professionellen Umfeld ist die Pflege in Altenheimen mit der Aastra-Branchenlösung OPAS. Hier kann beispielsweise mittels Telefon und Sprache die erbrachte Leistung dokumentiert werden – das Pflegepersonal gewinnt viel mehr Zeit für die Bewohner“, sagt Latzel. Übrigens schlage die Technik mit der Sprachwahl den Bogen zurück zu den Anfängen des Telefons vor der Einführung des Selbstwählsystems: damals aktivierte man den Telefonapparat durch Erzeugung einer Rufspannung über den Kurbelinduktor und sagte dem „Fräulein vom Amt“, mit welchem Teilnehmer man sprechen möchte. „Im modernen Telefon mit Sprachinteraktion wird das Fräulein von einer Software ersetzt“, so Latzel. In Kombination mit den Datenwolken von Google ergeben sich nach Prognosen von O’Reilly ungeahnte Möglichkeiten. „Sensorenreiche Geräte mit Anwendungen, die diese Sensoren nutzen, um mit Datenwolkendiensten zu interagieren und sie zu füttern. Der Standortsensor weiß, wo man sich befindet; das Mikrofon erkennt den Klang der Stimme, so dass es persönliche Daten in der Datenwolke frei setzt; die Kamera nimmt Objekte und Personen auf und sendet ein Bild zu einer abgelegenen Anwendung, die diese erkennt und die entsprechenden Informationen abruft“, führt O’Reilly aus. Viele Durchbrüche würden bereits vor der Tür stehen. Die Stimmen- und Gestenerkennung in der Google Mobile-Anwendung seien nur der Anfang. Der gleichen Meinung ist der Berliner Sprachdialogexperte Lupo Pape: „Es ist erst einmal eine Sprach- oder Diktiererkennung, die auf einer Suchmaschine und demnächst sogar auf weiteren Handyfunktionen aufsetzt. Sprachdialogsysteme werden es erst, wenn ein Wissen über die Domäne und Dialogintelligenz hinzukommen. Das ist das, was wir mit dem Personal Assistant umsetzen. Dazu müssen die Wissensgebiete semantisch aufbereitet und Dialogstrategien hinterlegt werden. Die wichtigsten Use-Cases gilt es zu modellieren“, resümiert SemanticEdge-Geschäftsführer Pape.

 

Siehe auch:

http://de.youtube.com/watch?v=y3z7Tw1K17A&eurl=http://googlemobile.blogspot.com/

http://googleblog.blogspot.com/2008/11/now-you-can-speak-to-google-mobile-app.html

 

Studie: Bauchfett erhöht Prostatakrebs-Risiko bei Männern – Kohlenhydratarme Ernährung könnte Abhilfe schaffen

Eine Studie Potsdamer Ernährungsforscher ergab, dass ein dicker Bauch erhebliche Gesundheitsrisiken birgt. Zuviel Fett um Hüfte und Taille führt zu einem erhöhten Prostatakrebsrisiko bei Männern, so die Ergebnisse der Studie, die die Wissenschaftler anhand der Daten von mehr als 153.000 Männern in einer EU-weiten Langzeitstudie ermittelten. Laut den Forschern um Heiner Boeing und Tobias Pischon vom Deutschen Institut für Ernährungsforschung in Potsdam www.dife.de könnte das Bauchfett den männlichen Hormonhaushalt im Hinblick auf das Prostatarisiko ungünstig beeinflussen.

Zudem belegen weitere Studiendaten, dass starkes Übergewicht und ein dicker Bauch bei Menschen um die 50 auch das Sterblichkeitsrisiko erhöhen. Die Forscher fanden heraus, dass nicht nur übergewichtige Menschen von diesem Risiko betroffen sind. „Das wichtigste Ergebnis unserer Untersuchung ist, dass das Übergewicht an sich, aber auch unabhängig davon die Körperfettverteilung das Sterblichkeitsrisiko eines Individuums beeinflusst“, so Pischon. Denn das Bauchfett sei nicht nur ein Energiespeicher, sondern es produziere auch Botenstoffe, die die Entwicklung chronischer Erkrankungen fördern. Dies könne zum Teil erklären, warum auch schlanke Menschen mit einem niedrigen Body-Mass-Index (BMI) aber großem Taillenumfang ein erhöhtes Sterblichkeitsrisiko besäßen. In Deutschland sind inzwischen 67 Prozent der Menschen übergewichtig oder stark übergewichtig. Nicht nur die Ergebnisse der Potsdamer Studie verdeutlichen, wie dringend die Deutschen hier etwas ändern müssen. Denn: wie eine weitere Teilstudie der europaweiten Studie ergab, fördert eine fettreiche Ernährungsweise zudem das Risiko, an Brustkrebs zu erkranken.

Die Zahl der Diäten ist inzwischen immens gestiegen, doch über ihre Effektivität lässt sich streiten. Viel versprechender erscheint es in diesem Zusammenhang, einfach seine Ernährung umzustellen und auf eine ausgewogene Ernährungsweise zu achten. Eine Möglichkeit besteht daran, sein Essverhalten an der GLYX-Ernährungslehre zu orientieren, das heißt unter Beachtung des so genannten Glykämischen Indexes (GI). Der GI gibt an, wie schnell ein kohlenhydrathaltiges Lebensmittel den Blutzuckerspiegel ansteigen lässt. Kohlenhydrate mit hohem GI lassen den Blutzucker hoch ansteigen, Kohlenhydrate mit geringem GI stabilisieren hingegen den Blutzucker. Je steiler der Blutzucker nach oben klettert, desto mehr Insulin schüttet der Körper aus, um den Blutzuckerspiegel wieder zu senken. Das Insulin tut dies, indem es die in Glykose umgewandelten Kohlenhydrate als Energie in die Zellen transportiert. Sind die Zellen und die Energiespeicher noch voll, wandert alles direkt in die Fettdepots. Insulin wird daher auch als Fettspeicher- oder Masthormon bezeichnet. Nimmt man zu viele hochglykämische Kohlenhydrate zu sich, steigt das Körpergewicht stark an.

Laut der Klassifikation der Weltgesundheitsorganisation (WHO) werden Lebensmittel in drei Gruppen eingeteilt – solche mit einem niedrigen Glykämischen Index (55 oder weniger), solche mit einem mittleren GI-Wert (56 bis 69) und Lebensmittel, die einen hohen GI-Wert aufweisen (70 oder mehr). Ausgangspunkt und gleichzeitig höchster GI-Wert ist mit 100 – der Glykämische Index von Traubenzucker. Cornflakes haben etwa einen Glykämischen Index von 81. Der Ernährungsexperte Ulrich Overdiek beschäftigt sich schon seit langem mit dem Glykämischen Index. Er ist Geschäftsführer der vivamangiare Wellfood-Restaurants www.vivamangiare.de. „Wir positionieren uns nach der Leitlinie ‚Wellfood statt Fastfood. Alle Speisen und Getränke sind bei uns farblich gekennzeichnet – dabei steht grün für kohlenhydratarme Speisen und Getränke mit geringem GI, gelb für Speisen mit mittleren GI und rot für kohlenhydratreiche Speisen mit hohem GI“. Sein neues Produkt ist vivagreen, ein Erfrischungsgetränk mit einem GI-Wert von unter 50. 

Schlagworte verdichten den Nebel: Kritischer Diskurs zur Cloud Computing-Strategie von Google

In den kommenden Jahren werden Computerprogrammierung, Computerarchivierung und Netzwerk-Fähigkeiten nach Einschätzung von Google eine exponentielle Entwicklung  erfahren. „Neue Computerprogramme, von denen eine noch größere Anzahl netzbasiert sein wird als bisher, kommen auf den Markt, um aus diesen neuen Möglichkeiten Kapital zu schlagen“, schreiben  die Google-Forscher Wie sich bereits heute abzeichnet, werden die Menschen mit dem „Cloud Computing” synchron agieren und eine Fülle an technischen Geräten zeitgleich nutzen: PCs, Mobiltelefone, PDAs und Computerspiele. Die steigende Anzahl und Vielfalt der Interaktionen werde das Cloud Computing nicht nur mit mehr Informationen ausstatten, sondern auch wertvolle Daten und Fakten über die Denk- und Verhaltensweise von Menschen und Systemen liefern. „Auf diese Weise erhalten Computersysteme die fantastische Möglichkeit, aus dem Kollektivverhalten von Milliarden Menschen Informationen abzuleiten und Erkenntnisse zu gewinnen“, meinen die beiden Google-Manager.

Computer werden intelligenter und könnten Beziehungen zwischen Objekten, Nuancen, Absichten, Bedeutungen und anderen tief gehenden konzeptionellen Informationen herstellen. Für Google würden sich neue Möglichkeiten ergeben, die Suchfunktionen weiter zu verbessern.  „Wir werden in der Lage sein, unsere Systeme so ausreifen zu lassen, dass sie nicht nur die Charaktere unterscheiden und erkennen oder beispielsweise Namen in ein YouTube-Video oder Buch einspielen können. Sie werden zudem in der Lage sein, Handlung und Symbolik zu erkennen. Das potenzielle Ergebnis wäre eine Art konzeptionelle Suche, nach dem Motto: ‚Suche mir eine Geschichte mit einer spannenden Verfolgungsjagd-Szene und einem Happy End’. Da es den Systemen somit ermöglicht wird, Informationen aus individuellen Interaktionen herauszufiltern, werden sie in der Lage sein, Ergebnisse zugeschnitten auf die Situationsbedürfnisse der Einzelperson zu liefern“, führen Spector und Och aus. Darüber hinaus werden auch Übersetzungs- und Multi-Modal-Systeme technisch realisierbar werden. Wenn Menschen in einer bestimmten Sprache kommunizieren, könnten sie auf diese Weise automatisch und nahtlos mit Menschen und Informationen in anderen Sprachen interagieren. Die Auswirkungen solcher Systeme werden weit über das Google-System hinausgehen. „Forscher medizinischer und allgemein-wissenschaftlicher Bereiche erhalten so Zugang zu riesigen Datenmengen und können dadurch Analysen und Algorithmen zur Erkennung bestimmter Muster durchführen, die es bisher in dieser Ausprägung noch nicht gegeben hat“, prognostizieren Spector und Och. So könnte beispielsweise das Large Synoptic Survey Telescope (LSST) mehr als 15 Terabyte an neuen Daten pro Tag generieren.

Bisher wurden Systeme, die komplizierte Probleme und Fragen lösen und beantworten konnten, traditionsgemäß mit dem Etikett „intelligent” versehen. Verglichen mit der ersten Generation der „Künstlichen Intelligenz” habe der neu eingeschlagene Weg  besseres zu bieten: „Zunächst einmal wird dieses System in einer gigantischen Dimension umgesetzt, mit einer bis dato beispiellosen computerisierten Kraft und Energie durch Millionen von Computern. Bei der Entwicklung werden darüber hinaus Parameter berücksichtigt, um konkrete und nützliche Aufgaben zu lösen und zu verbessern. Hierzu gehören die Informationssuche, die Beantwortung von Fragen, die Umsetzung eines gesprochenen Dialogs, die Übersetzung von Texten und Reden, die Umwandlung von Images und Videos“, erläutern Spector und Och. 

Die wolkigen Computervisionen von Google stoßen auf Widerstand: „Die Argumentation für Cloud Computing unterscheidet sich in vielen Details nicht von den Argumenten, die viele Jahre für Großrechner angeführt wurden, nun verbunden mit einer Netzversorgungsphilosophie, die neben unbegrenzten Übertragungskapazitäten auch unbegrenzte Rechenkapazitäten verheißt. Nach dem Ende der Großrechnerära wurde in den 90er Jahren von einigen IT-Herstellern das Network-Computing propagiert, wo die einfachen Terminals zwar durch Lite-PCs ersetzt wurden, aber die Applikationen aus dem Netz kommen. Das hatte keinen Erfolg“, kontert Andreas Latzel, Deutschlandchef des ITK-Anbieters Aastra http://www.aastra-detewe.de in Berlin. Die Cloud Computing-Prediger würden verkennen, dass es komplett gegenläufige Trends zu großen, mächtigen Computerzentren und damit auch zu Anbietern der Leistungserbringer gibt. „Open Source etwa, wo zunehmend auch viele große Unternehmen auf freier, unter der Open Source Lizenz veröffentlichter Software aufsetzen und diese für ihre Modifikationen und Erweiterungen benutzen. Ob Linux, OpenOffice oder Mozilla, es gibt viele gute Gründe für Open Source“, sagt Latzel. Ein weiteres Gegenargument sei die zunehmende Mobilität. „Es gibt keine unbegrenzte Bandbreite. Selbst in Deutschland, wo UMTS seit vier Jahren kommerziell verfügbar ist, lässt sich selbst mit Bandbreiten nach R99 nicht flächendeckend und in allen Gebäuden arbeiten, von schnelleren Bandbreiten nach HSDPA und LTE ganz zu schweigen. Auch WLAN-Hotspots sind nur begrenzt verfügbar. Somit muss jede Anwendung für die Geschäftswelt auch darauf ausgelegt sein, offline arbeiten zu können. Dazu kommt die mangelnde Zahlungsbereitschaft der Anwender, für sehr hohe mobile Bandbreiten zu bezahlen, so dass eher Bandbreiten in Frage kommen, die lediglich Anwendungsdaten übertragen, aber nicht eine zentralisierte Rechenleistung unterstützen“, führt Latzel weiter aus.

Als Skeptiker hat sich nach einem Bericht von Silicon http://www.silicon.de auch der Free-Software-Guru Richard Stallman offenbart. Für ihn ist Cloud Computing schlicht eine „Dummheit“. Zumal unter diesem Begriff nichts Neues zusammengefasst werde. Doch Stallman zieht nicht nur gegen alten Wein in neuen Schläuchen zu Felde: Er sieht reale Gefahren für die Anwender. Es könnten neue Abhängigkeiten entstehen und die Kosten explodieren. „Das Interessante am Cloud Computing ist, dass wir es so re-definiert haben, dass es vor allem Dinge enthält, die wir ohnehin schon tun“, so Stallman gegenüber dem „Guardian“. Der Begriff sei vor allem durch die Industrie geprägt worden. In erster Linie beschreibe es jedoch die Tatsache, dass die Anwender die Hoheit über ihre Computer an die Hersteller und Anbieter abgeben. Und diese Hersteller heißen Google, Microsoft und Amazon.

Die Technologien von Google bieten für den privaten und professionellen Sektor einen erheblichen Nutzen. Und man ist vielleicht geneigt, die Kapazitäten als Cloud zu bezeichnen. Man kennt ja das Gesetz von Metcalfe: Die Nützlichkeit eines Netzwerkes ist proportional zum Quadrat der Anzahl der Benutzer. Seitdem wissen wir, wie sich die bessere Vernetzung auf den Nutzen auswirkt. Cloud Computing ist nicht neu, und vielleicht eher als Fortführung des Gridgedankens vor zehn  Jahren zu sehen, nämlich der Nutzung der Netzwerk-Ressourcen, Computing aus der Steckdose oder ASP Modelle. Die Realität ist jedoch anders: Die Performance ist durch die Komplexität der Applikationen limitiert“, erläutert der Bizerba-Director Global Informaton Andreas Rebetzky. Sie leide  immer unter dem schwächsten Glied in der Kette. „Und das wechselt ab und an die Lager: Heute die CPU, morgen das I/O Verhalten und dann vielleicht die Netzperformance. Wir sollten auf den Boden der Realität zurückkommen und die verfügbaren Technologien wertsteigernd einsetzen – anstatt mit Schlagworten den Nebel zu verdichten“, fordert der IT-Experte Rebetzky.

 

Kritik an PVC-Recyclingzahlen: Verbrennung ist keine Verwertung – Branche weist Vorwürfe zurück – Bonner Tagung behandelt das Thema „PVC – Rohstoff und Sorgenkind der Entsorger?“

Der Europäische Verein für PVC-Recycling (EUPV) in Bonn fährt schwere Geschütze gegen die PVC-Industrie auf: So rechne angeblich die Branche ihre Recyclingmengen schön und führe Politiker, Umweltverbände und die Recyclingwirtschaft hinters Licht. Auslöser der Kritik ist ein Schreiben Arbeitsgemeinschaft PVC und Recycling (AGPU) http://www.agpu.de. Dort werde verkündet, dass bundesweit 70 Unternehmen im vergangenen Jahr mehr als 200.000 Tonnen PVC werkstofflich recycelt haben. „Diese Verwertungszahlen sind eine Frechheit. Im Fortschrittsbericht von vinyl 2010 stehen für Deutschland im Jahr 2007 nur 35.000 Tonnen als werkstofflich verwertete PVC-Mengen“, empört sich Rechtsanwalt Sebastian Frings-Neß, Vorsitzender des EUPV. Die auf der AGPU-Homepage veröffentlichten Verwertungszahlen würden einen an das Ausschlussprinzip wie bei Günther Jauchs „Wer wird Millionär“ erinnern. „Zu Beginn wird eine Studie erstellt, die die jährliche PVC-Abfallmenge errechnet. Im Rahmen einer retrograden iterativen Annäherung werden dann die tatsächlich nachgewiesenen Verwertungsmengen abgezogen. Weil kein PVC mehr auf der Strasse liegt, es auf Deponien nicht mehr abgelagert werden kann, muss es logischerweise in Müllverbrennungsanlagen rohstofflich verwertet worden sein“, vermutet Frings-Neß. Das sei nicht nur Schönfärberei, sondern ökologisch höchst fragwürdig. „PVC setzt bei der Verbrennung Chlor frei und greift die Öfen der Müllverbrennungsanlage an. Bei den normalen Verbrennungstemperaturen bildet sich Dioxin, das durch die Umweltskandale in Seveso und Bhopal noch in furchtbarer Erinnerung ist. So überrascht es nicht, wenn MVA-Betreiber PVC-Abfälle strikt ablehnen“, sagt Frings-Neß.

AGPU und Vinyl 2010 http://www.vinyl2010.org weisen entschieden die Vorwürfe des Bonner Vereins zurück, dass Statistiken zu PVC-Recyclingzahlen in Deutschland durch die Industrie in gewisser Weise irreführend manipuliert worden seien. Auf der Grundlage der von der Marktforschungsgesellschaft Consultic durchgeführten Erhebung war es eine Gesamtmenge von 221.000 Tonnen PVC, die in Deutschland im Jahr 2007 werkstofflich recycelt wurde, teilen die beiden Organisationen mit und erklären weiter: „Aufgrund des langen Lebenszyklus vieler PVC-Anwendungen wie zum Beispiel von Rohren und Fensterrahmen ist der Anteil von PVC, der in den allgemeinen Abfall gelangen kann, zur Zeit immer noch äußerst gering. Kommunale Müllverbrennungsanlagen werden strengstens kontrolliert und reguliert. PVC ist nur einer von verschiedenen Einträgen zu dem Chloranteil von städtischem Abfall und daher werden Müllverbrennungsanlagen so konzipiert, dass sie sauren Rauchgasen standhalten“.

Unabhängige und gut dokumentierte wissenschaftliche Studien hätten zudem bewiesen, dass Emissionen von Dioxinspuren Ergebnis von Verbrennung des normalen Mülls ist, „unabhängig davon, ob PVC in der Mischung vorhanden ist oder nicht, und dass Emissionen von Dioxinen in die Atmosphäre über die vergangenen Dekaden dramatisch gefallen sind, während die Menge an produziertem PVC stark angestiegen ist“, so die AGPU und Vinyl 2010. „Bemerkenswert ist, das AGPU und Vinyl 2010 sich gemeinsam auf die Daten einer selbst in Auftrag gegebenen Studie beziehen. Es liegen weder national noch international Erhebungen unabhängiger Institutionen zur werkstofflichen PVC-Verwertung vor, auf die sich die deutschen und europäischen Interessenverbände der PVC-Industrie stützen können“, kontert der EUPV-Vorsitzende Frings-Neß. Die in Auftrag gegebenen Zahlen des Marktforschungsunternehmens Consultic würden auf Stichproben basieren und seien mit Hilfe statistischer Mittel berechnet worden. „Die im Verwertungsszenario dargestellten Säulen der PVC Verwertung brechen bei näherer Betrachtung weitgehend zusammen. Die PVC-Industrie ist die einzige Branche, die mit der Verwertung von 144.000 Tonnen Produktionsresten aus der Verwendung von Primärmaterialien, ihre Recyclingquote beweist. Keine einzige europäische Recyclingverordnung lässt zu, Verwertungsquoten mit der Aufbereitung von Produktionsresten darzustellen. Das ist genau das gleiche, wenn die Verwertungsquote für Kunststoffe im Rahmen der Verpackungsverordnung durch das Recycling von Stanzresten aus der Produktion von Joghurtbechern belegt wird. Damit wird die PVC-Industrie einer Recyclingquote nach europäischen Maßstäben nicht gerecht“, moniert Frings-Neß.

Auf Rückfrage hätte die Dachorganisation der europäischen Grüne Punkt Systeme Pro Europe in Brüssel bestätigt, dass in keinem ihrer Mitgliedssysteme PVC- Verpackungen im Rahmen einer nationalen Verpackungsverordnung recycelt werden, da dieser Kunststoff den gesamten werkstofflichen und rohstofflichen Verwertungsprozess störe. PVC werde bei Verwertungsbetrieben und Produktionsanlagen für Ersatzbrennstoff extra durch hoch technisierte automatische Erkennungssysteme ausgetragen, um den weiteren Verlauf des Produktionsprozesses nicht zu behindern. „Vergleichbare Sortierprozesse finden auch bei Elektronikschrottverwertung und der Automobilaufbereitung statt“, erklärt Frings-Neß. PVC werde in der Regel aus dem Verwertungsweg ausgeschlossen. „Wohin verschwindet das gesammelte und aussortierte PVC? Eine Sortieranalyse gemischter Hartkunststoffballen für den asiatischen Exportmarkt aus dem Jahr 2007  kann weiteren Aufschluss geben. Zwischen 16 und 23 Prozent der als PE, PP und PS verkauften Mengen bestanden aus PVC, welches als Abfall besonders in ostasiatische Staaten exportiert wird“, sagt Frings-Neß.

 

Am 26. November 2008 wird es in Bonn zu dieser Problematik eine Tagung geben. Thema: PVC – Rohstoff und Sorgenkind der Entsorger?. Ort: Internationales Informationszentrum für

Umwelt, Abfall und Recycling. Margaretenstr. 1, 53175 Bonn. Beginn um 9,30 Uhr. Siehe auch: http://www.ascon-net.de

Studie: Bauchfett erhöht Prostatakrebs-Risiko bei Männern – Kohlenhydratarme Ernährung könnte Abhilfe schaffen

Eine Studie Potsdamer Ernährungsforscher ergab, dass ein dicker Bauch erhebliche Gesundheitsrisiken birgt. Zuviel Fett um Hüfte und Taille führt zu einem erhöhten Prostatakrebsrisiko bei Männern, so die Ergebnisse der Studie, die die Wissenschaftler anhand der Daten von mehr als 153.000 Männern in einer EU-weiten Langzeitstudie ermittelten. Laut den Forschern um Heiner Boeing und Tobias Pischon vom Deutschen Institut für Ernährungsforschung in Potsdam www.dife.de könnte das Bauchfett den männlichen Hormonhaushalt im Hinblick auf das Prostatarisiko ungünstig beeinflussen. Zudem belegen weitere Studiendaten, dass starkes Übergewicht und ein dicker Bauch bei Menschen um die 50 auch das Sterblichkeitsrisiko erhöhen. Die Forscher fanden heraus, dass nicht nur übergewichtige Menschen von diesem Risiko betroffen sind. „Das wichtigste Ergebnis unserer Untersuchung ist, dass das Übergewicht an sich, aber auch unabhängig davon die Körperfettverteilung das Sterblichkeitsrisiko eines Individuums beeinflusst“, so Pischon. Denn das Bauchfett sei nicht nur ein Energiespeicher, sondern es produziere auch Botenstoffe, die die Entwicklung chronischer Erkrankungen fördern. Dies könne zum Teil erklären, warum auch schlanke Menschen mit einem niedrigen Body-Mass-Index (BMI) aber großem Taillenumfang ein erhöhtes Sterblichkeitsrisiko besäßen.  

In Deutschland sind inzwischen 67 Prozent der Menschen übergewichtig oder stark übergewichtig. Nicht nur die Ergebnisse der Potsdamer Studie verdeutlichen, wie dringend die Deutschen hier etwas ändern müssen. Denn: wie eine weitere Teilstudie der europaweiten Studie ergab, fördert eine fettreiche Ernährungsweise zudem das Risiko, an Brustkrebs zu erkranken.  

Die Zahl der Diäten ist inzwischen immens gestiegen, doch über ihre Effektivität lässt sich streiten. Viel versprechender erscheint es in diesem Zusammenhang, einfach seine Ernährung umzustellen und auf eine ausgewogene Ernährungsweise zu achten. Eine Möglichkeit besteht daran, sein Essverhalten an der GLYX-Ernährungslehre zu orientieren, das heißt unter Beachtung des so genannten Glykämischen Indexes (GI).  

Der GI gibt an, wie schnell ein kohlenhydrathaltiges Lebensmittel den Blutzuckerspiegel ansteigen lässt. Kohlenhydrate mit hohem GI lassen den Blutzucker hoch ansteigen, Kohlenhydrate mit geringem GI stabilisieren hingegen den Blutzucker. Je steiler der Blutzucker nach oben klettert, desto mehr Insulin schüttet der Körper aus, um den Blutzuckerspiegel wieder zu senken. Das Insulin tut dies, indem es die in Glykose umgewandelten Kohlenhydrate als Energie in die Zellen transportiert. Sind die Zellen und die Energiespeicher noch voll, wandert alles direkt in die Fettdepots. Insulin wird daher auch als Fettspeicher- oder Masthormon bezeichnet. Nimmt man zu viele hochglykämische Kohlenhydrate zu sich, steigt das Körpergewicht stark an.  

Laut der Klassifikation der Weltgesundheitsorganisation (WHO) werden Lebensmittel in drei Gruppen eingeteilt – solche mit einem niedrigen Glykämischen Index (55 oder weniger), solche mit einem mittleren GI-Wert (56 bis 69) und Lebensmittel, die einen hohen GI-Wert aufweisen (70 oder mehr). Ausgangspunkt und gleichzeitig höchster GI-Wert ist mit 100 – der Glykämische Index von Traubenzucker. Cornflakes haben etwa einen Glykämischen Index von 81.

Der Ernährungsexperte Ulrich Overdiek beschäftigt sich schon seit langem mit dem Glykämischen Index. Er ist Geschäftsführer der vivamangiare Wellfood-Restaurants www.vivamangiare.de und bietet hier seinen Gästen gesunde Snacks und leichte Gerichte unter dem Motto „Wellfood statt Fastfood“. „Hier kann sich jeder gezielt kohlenhydratarm ernähren. Alle Speisen und Getränke sind farblich gekennzeichnet – dabei steht grün für kohlenhydratarme Speisen und Getränke mit geringem GI, gelb für Speisen mit mittleren GI und rot für kohlenhydratreiche Speisen mit hohem GI“. Sein neuestes Produkt ist vivagreen, ein Erfrischungsgetränk mit einem GI-Wert von unter 50.