Wissenschaft in Europa |
||
Bücherwürmer in der Frührenaissance Köln (alphagalileo) - Gut 16.000 Jahre würde der deutsche Durchschnittsleser bei seinen 20 Büchern pro Jahr benötigen, um sich durch das diesjährige Angebot der Frankfurter Buchmesse zu kämpfen: Die Aussteller präsentieren 330.467 Titel, darunter allein 78.257 Neuerscheinungen. Seinen beispiellosen Siegeszug verdankt das Buch vor allem der Erfindung der Druckerpresse Mitte des 15. Jahrhunderts durch den Mainzer Johannes Gutenberg. Doch schon zuvor bestand in verschiedenen Gesellschaftsschichten eine große Nachfrage nach religiöser und fachlicher Literatur, die Gutenbergs Erfindung auf besonders fruchtbaren Boden fallen ließ. Zu diesem Schluss kommt Dr. Anselm Fremmer, der in seiner Dissertation an der Universität Bonn mit dem Titel „Venezianische Buchkultur“ den Ursachen der durch Gutenberg ausgelösten Medienrevolution nachspürt. Der Bonner Historiker – inzwischen bei der Deutschen Forschungsgemeinschaft (DFG) beschäftigt – geht in seiner Doktorarbeit der Frage nach, inwieweit sich das handschriftlich gefertigte Buch vor der Einführung der Druckerpresse in verschiedenen Lebensbereichen bereits durchgesetzt hatte. Dazu recherchierte er im Staatsarchiv von Venedig – die dortige umfangreiche Sammlung von Testamenten, Nachlassinventaren, Rechnungsbüchern und Verkaufslisten gibt einen guten Einblick in die Vermögensverhältnisse der Venezianer im 14. und 15. Jahrhundert. Dr. Fremmer ermittelte 255 venezianische Buchbesitzer zwischen 1311 und 1498, für die auch Aufstellungen ihrer Handschriften existierten. „Die Quellen bestätigen eine wachsende Verwendung von Büchern“, so der Historiker. „Zunehmend waren neben kostbaren Prachthandschriften auch preisgünstigere Bücher für den täglichen Gebrauch im Umlauf.“ Staatsdiener, Kleriker, Schulmeister, Ärzte, selbst einige Handwerker legten sich fachliche Abhandlungen zu – von einzelnen Bänden bis hin zu ganzen Privatbibliotheken.. „Vor allem die Verbreitung religiöser Werke nahm zu, insbesondere bei Frauen und bei der wachsenden Anzahl von Buchbesitzern aus mittleren Vermögensschichten.“ Humanistisches Gedankengut und schöngeistige Literatur verbreiteten sich indes vornehmlich unter den wohlhabenden Venezianern. Die Untersuchung zeigt, dass die Erfindung der Druckerpresse durch Johannes Gutenberg wohl auch deshalb in der zweiten Hälfte des 15. Jahrhunderts ihren Siegeszug antreten konnte, weil schon zuvor eine wachsende Nachfrage nach „Geschriebenem“ eingesetzt hatte. Die Druckerpresse erlaubte nun, mittels beweglicher Lettern Bücher in hundertfach höherer Auflage herzustellen, als es zuvor handschriftlich möglich gewesen war. Von Gutenbergs Gesellen wanderten viele in das reiche Italien aus, da es dort leichter war, Investoren zu finden. Bereits nach wenigen Jahren produzierten ihre Werkstätten Bücher in tausendfacher Auflagenhöhe, die sie nach ganz Europa exportierten und die ihnen satte Gewinne einbrachten. Dr. Fremmer: „Im Gegensatz zu anderen Erfindungen und Entdeckungen der Zeit stieß das gedruckte Buch auf ein großes Interesse und erschloss sich rasch unterschiedliche Käuferschichten.“ |
||
ICAROS-NET überwacht Luftverschmutzung in Städten Satellitengestützte Sensoren überblicken Gebiet von nur 30 Meter Durchmesser Brüssel (pte) - Am 15. Oktober erfolgt in Athen die Präsentation der ersten Testreihen einer neuen Technik zur Überwachung der Konzentration an Schwebeteilchen in der Luft von Städten. Das System arbeitet mit satellitengestützten Sensoren und soll eine sehr viel kostengünstigere Alternative zur herkömmlichen landgestützten Überwachung darstellen. Das System wurde von 11 Partnern im Rahmen eines von der EU-Kommission geförderten Projektes entwickelt, schreibt die Kommission heute, Donnerstag, in einer Aussendung. Schwebeteilchen gehören mittlerweile zur größten Gefahr, die der menschlichen Gesundheit aufgrund der Luftverschmutzung droht. Das so genannte ICAROS-NET (Integrated Computational Assessment of urban air quality via Remote Observation Systems NETwork - Integrierte computergestützte Auswertung der städtischen Luftqualität mit Hilfe eines ferngesteuerten Beobachtungsnetzes) startete im September 2001 und ist auf drei Jahre angesetzt. Satellitengestützte, hochauflösende Sensoren überwachen dabei die Luftverschmutzung in Gebieten von nur 30 Meter Durchmesser, indem sie den Lichtanteil, der von den Schwebeteilchen absorbiert wird, messen. Die Ergebnisse werden umweltpolitische Entscheidungen in Europa erleichtern und die Wirksamkeit internationaler Umweltabkommen verbessern, heißt es aus Brüssel. "Mit dem ICAROS-NET wird ein benutzerfreundliches System zur Messung der Luftqualität zur Verfügung stehen, das es den Regierungen erleichtert, die richtigen umweltpolitischen Entscheidungen zu treffen", so Forschungskommissar Philippe Busquin. Die Kommission leitet ein Team von zehn Partnern aus Griechenland, Deutschland, Ungarn und Italien, dessen Ziel es ist, ein intelligentes, vernetztes System zur Überwachung und Steuerung der Luftqualität zu schaffen. Das System ist so ausgelegt, dass es flexibel auf Städte, Regionen und grenzübergreifend anwendbar ist. ICAROS-NET wird daher von allen EU-Mitgliedstaaten und den Beitrittskandidaten in Osteuropa eingesetzt werden können. Zur Validierung des Systems wird das ICAROS-NET in vier Testgebieten eingesetzt. Erstes Einsatzgebiet ist Athen. Weitere Testläufe für den städtischen Bereich sind in Budapest und München geplant, in der Lombardei ist ein regionaler Testlauf vorgesehen. Neben der Validierung der Messleistung des Systems wird im Rahmen der Versuche auch die Leistung des Telematiknetzes getestet, mit dem eine integrierte Überwachung und Vorhersage der europaweiten Luftverschmutzung ermöglicht werden soll. Mit Sensoren bestückte Satelliten sollen sowohl eine Bewertung der Pflanzengesundheit im überwachten Gebiet als auch der Menge an Schwebeteilchen in der Luft ermöglichen. Durch die Zusammenführung der Daten der satellitengestützten Sensoren, der bodengestützten Messungen sowie der Daten aus Computer-Modellen über die Verschmutzungsverteilung soll ICAROS-NET auch ein zuverlässiges Bild der großflächigen Luftverschmutzung liefern können. Die gewonnenen Informationen können in ein vollständig kompatibles Umweltinformationssystem eingebracht werden, das europaweit abzufragen ist. |
||
Speichelenzyme machen Lederherstellung "grüner" Amylasen statt Kalk halbieren umweltschädliche Auswirkung beim Gerbprozess London (pte) - Indische Forscher nutzen biologische Katalysatoren, um Tierhäute in Leder zu verwandeln. Die "grünen" Katalysatoren entsprechen den Enzymen des Speichels und sollen laut eigenen Angaben die umweltschädlichen Auswirkungen im Zuge des Gerbprozesses halbieren. Wie das Fachmagazin Nature am Mittwoch (02. 10.) berichtet, haben Lederhersteller das Verfahren zwar verbessert, bestimmte Schritte wie das Äschern", wo sich durch Zugabe von Kalk und Schwefelverbindungen die Haare von der Haut lösen, oder das "Beizen" und "Pickeln", wo das Fell mit Säure und Salz für die Gerbung aufbereitet wird, gelten nach wie vor als giftig. Durch das Eintauchen der Tierhäute in Schwerfelverbindungen entstehen Faulgase und Kalk hinterlässt giftigen Schlamm. In einigen Teilen der Welt werden bereits alternativ Enzyme zur Entfernung der Haare verwendet. Jonnalagadda Raghava Rao und Kollegen des Central Leather Research Institute in Chennai entdeckten, dass die Enzyme einen Kalkersatz beim Beizschritt darstellen. Das Beizen leitet ein weiteres Verfallen der Haut durch Enzyme ein, um das Fasergefüge für den anschließenden Gerbprozess stärker aufzuschließen. Durch das Beizen wird die Haut elastischer und voluminöser gemacht, da Eiweiß-Kohlenstoff-Kombinationen (Proteoglykane) aufbrechen und einzig Kollagenfasern übrig bleiben. Laut den Forschern können bestimmte Enzyme, Amylasen, Proteoglykane ebenso wirksam aufbrechen wie Kalk. Sie beendeten den Lederherstellungsprozess durch die Behandlung mit chemischen oder pflanzlichen Gerbstoffen und erhielten Häute, die so weich wie die mit Kalk behandelte Felle waren. Zusätzlich soll das enzymatische Gerbverfahren durch die Verwendung handelsüblicher Amylasen gleich teuer wie der rein chemische Prozess sein. |
||
Fraunhofer präsentiert "unsichtbaren" Computer "Welt um uns herum" als Schnittstelle zu Informationen und Kommunikation Göteborg (pte) - Der Computer der Zukunft wird zwar nicht "verschwinden", aber "unsichtbar" sein. IPSI (Integrierte Publikations- und Informationssysteme) Fraunhofer entwickelt nach eigenen Angaben solche Disappearing-Computer. Dabei geht es darum, die "Welt um uns herum" zur Schnittstelle für Informationen, Kommunikation und Kooperation werden zu lassen, indem aufgabenorientierte Aktivitäten und informelle Kommunikation in die allgemeine Arbeitsumgebung integriert werden. Bei dem derzeitig stattfindenden jährlichen Treffen der Disappearing-Computer-Initiative im schwedischen Göteborg, wo Wissenschaftler aus aller Welt mit ihren Projekten versammelt sind, hat IPSI Fraunhofer seine neuen Produkte InforMall und ViewPort vorgestellt. Das IPSI ist Koordinator des EU-geförderten Projekts Ambient Agoras: "Dynamic Information Clouds in a Hybrid World". InforMall ist ein berührungsempfindliches, interaktives Wanddisplay, auf dem Informationen mit dem Finger oder Stift abgerufen oder neue Informationen unkompliziert erzeugt werden können, wie z.B. im Kontext einer spontanen Diskussion als Teil einer informellen Begegnung von Personen im Flur, Foyer, etc. Es ist über das hauseigene Netzwerk mit den entscheidenden Informationsquellen verbunden und geht über herkömmliche "Schwarze Bretter" weit hinaus. Teams können sich mit seiner Hilfe organisieren und austauschen. Der ViewPort ist ein PDA (Personal Digital Assistent) mit zwei Bildschirmen, auf dem Informationen parallel in unterschiedlichen Kontexten angezeigt werden. Außerdem tauscht der ViewPort über ein drahtloses Funknetz Informationen mit Komponenten in der Umgebung aus, z.B. mit der GossipWall, und stellt diesen seine Bildschirme zur Verfügung. So können dort z.B. persönliche und vertrauliche Informationen angezeigt werden. In Göteborg zeigt das Fraunhofer-IPSI einen ersten Prototyp, zunächst noch auf der Basis eines kommerziell verfügbaren PDAs. |
||
Bonner Wissenschaftler basteln an Stauprognose-Systemen Organisation:Interdisziplinäres Zentrum für Komplexe Systeme der Universität Bonn Bonn (alphagalileo) - „Hier eine Warnung an alle Autofahrer: Auf der A565 in Höhe der Ausfahrt Bonn-Nord wird in 45 Minuten ein Stau erwartet, der sich gegen 10 Uhr 15 auflösen wird. Bitte beachten Sie die Ausweichsbeschilderung....“ Noch wäre die Treffergenauigkeit derartiger Prognosen gering. Wissenschaftler der Universitäten Bonn und Duisburg arbeiten aber an mathematischen Modellen, mit denen sie genauer vorhersagen wollen, wann und wo der Verkehr stockt. Sie durchsuchen dazu die NRW-Verkehrsmesswerte der letzten zwei Jahre nach Gesetzmäßigkeiten, die sie in ein Prognose-Programm ummünzen können. Manchmal behalten die Stauforscher Recht. Verkehrs-Experten hatten Frankreichs Autofahrern für den ersten Samstag im August den "schwärzesten Tag des Jahres" prognostiziert. Und tatsächlich: Die heranbrandende Reisewelle bescherte unseren Nachbarn in diesem Jahr einen neuen Rekord. Auf Autobahnen und Nationalstraßen ging nichts mehr; die Länge der Blechkarawane summierte sich zu über 700 Kilometern. „Doch wann und wo genau der Verkehr stocken wird, kann heute noch niemand vorhersehen“, sagt Dr. Volker Jentsch vom Bonner Institut für Angewandte Mathematik. „Selbst die ernsthafteren Modelle versprechen da mehr, als sie halten können.“ Eine Stauprognose funktioniert nämlich nicht wie eine einfache Rechengleichung – so nach dem Motto: Wenn viele Fahrzeuge unterwegs sind, die Straße naß ist und weiter vorne eine Baustelle, heißt es zwangsläufig „Stop and Go“, und wenn nicht, fließt der Verkehr ohne Probleme. Ein Stau kann auch aus dem Nichts entstehen: Wenn auf der Autobahn ohnehin schon viel los ist und dann noch irgendein Fahrer zu kräftig in die Eisen steigt, zum Beispiel. Dennoch hoffen die Bonner Mathematiker, Staus zukünftig besser vorhersagen zu können. „Ob es klappt, ist nicht sicher“, erklärt Dr. Jentsch, „aber die Datenlage ist gut, und damit haben wir zumindest eine Chance.“ Seit Jahren registrieren nämlich die Straßenbau-Behörden an zahllosen automatisierten Messpunkten das Verkehrsaufkommen auf deutschen Wegen. Die – mit öffentlichen Geldern finanzierten – Ergebnisse hüten sie normalerweise wie einen Schatz. Die Stauforscher um den Bonner Mathematiker Professor Dr.. Sergio Albeverio und den Duisburger Verkehrsexperten Professor Dr. Michael Schreckenberg dürfen nun mit den nordrhein-westfälischen Daten der letzten zwei Jahre arbeiten. „Dadurch wurde unser Projekt überhaupt erst möglich“, erklärt Dr. Jentsch. Auf meterlangen Diagrammen hat er die Fahrzeugdichte für verschiedene Zählpunkte ausgedruckt. Sie sehen aus wie die Fieberkurve eines Malariakranken: Phasen mit dichtem Verkehr – zum Beispiel zur Rush Hour – wechseln ziemlich regelmäßig mit Zeiten, zu denen weniger los ist. Manchmal jedoch schlägt die Kurve plötzlich nach oben aus: das Signal für einen Stau. Diese Peaks sind viel unregelmäßiger verteilt: „Manchmal stockte an diesem Messpunkt der Verkehr an drei aufeinanderfolgenden Tagen“, erklärt der Wissenschaftler. „Dann blieb es wieder ein paar Tage ruhig.“ Ziel der Projektpartner: Auf Grundlage der Informationen von den verschiedenen Messpunkten zu folgern, wo in Kürze – in einer halben Stunde oder einer Stunde – der Stillstand droht. Einige Gesetzmäßigkeiten kennen Verkehrsforscher schon: Beispielsweise, dass sich Staus mit etwa 15 Stundenkilometern entgegen der Fahrtrichtung fortpflanzen – mitunter über Dutzende von Kilometern. Manchmal löst sich das Blechgerinsel aber schon nach einigen Minuten auf, warum, ist unbekannt. Seit einem knappen halben Jahr versuchen die Projektpartner, aus den Unregelmäßigkeiten im Datenwust Regelmäßigkeiten herauszufiltern, um sie dann in ein Vorhersagemodell umzumünzen. Ließe sich der automobile Stillstand treffsicher prognostizieren, könnte man ihn vielleicht im Vorfeld durch eine Geschwindigkeitsbegrenzung oder eine automatische Ausweichbeschilderung verhindern. „Es geht uns aber auch noch um ganz andere Dinge“, betont Dr. Jentsch. „Mit den mathematischen Methoden, die wir hier entwickeln, sollten wir auch andere Extremereignisse vorhersagen können.“ Zum Beispiel Turbulenzen auf den Aktienmärkten. „Oder auch Hochwasser-Katastrophen wie die Elbe-Flut.“ |
||