Freitag, 29. Mai 2009

US-Verkaufsstart am 6. Juni 2009. Palm Pre: Neues Smartphone versteht sich mit iTunes ...

Neue Details zum mit Spannung erwarteten Smartphone „Pre“ von Palm: Der potenzielle iPhone-Rivale versteht sich offenbar prächtig mit der Medienverwaltung „iTunes“ von Apple und lässt sich über das Programm klaglos mit MP3-Songs befüllen.

Smartphone Palm Pre

Smartphone Palm Pre

Wie „CNN Money“ in einem Blog-Eintrag meldet, wird das Palm Pre dabei genauso behandelt wie ein iPhone oder ein iPod. So lässt sich die Musiksammlung automatisch synchronisieren oder einzelne Songs oder Alben manuell per Maus auf das Smartphone kopieren. Ausgenommen sind Titel, die im iTunes Store gekauft worden und mit einem DRM-Kopierschutz versehen sind. Auch iPhone-Programme aus dem „App Store“ mag das Palm Pre natürlich nicht.

Wie reagiert Apple auf das Palm Pre?

Bislang blieb MP3-Playern oder Handys der direkte Zugang zu iTunes versperrt; nur Apple-Geräte wurden von der Software akzeptiert. Es dürfte daher nur eine Frage der Zeit sein, bis Apple auf die Palm-Pre-Funktion reagiert und in einer neuen iTunes-Version das Smartphone wieder aussperrt. Mit der iTunes-Funktion deutet Palm allerdings mehr als deutlich an, in welche Stoßrichtung das Pre zielt. Durch die iTunes-Integration wird nämlich ein nicht unwesentliches Kaufargument für das iPhone oder einen iPod eliminiert.

Palm bringt das Smartphone Palm am 6. Juni zunächst in den USA auf den Markt. Experten sehen in dem Gerät die letzte Chance für den angeschlagenen Taschencomputer-Hersteller, in einem umkämpften Markt mit mobilen Geräten wieder Fuß zu fassen. (rs)

Posted via web from Superglide's Personal Blog ...

Schlag gegen opendownload.de. Verbraucherzentrale Bundesverband gewinnt Klage gegen Internet-Abzocker ...

Im Kampf gegen Kostenfallen im Internet hat der Verbraucherzentrale Bundesverband (vzbv) einen Erfolg gegen die einschlägig bekannte Firma Content Service Ltd. errungen. Sie betreibt unter anderem die Internetseite opendownload.de.

Screenshot der Webseite opendownload.de

Tolle Downloads? Von wegen – opendownload.de zockt arglose Nutzer gnadenlos ab!

Das Landgericht Mannheim untersagte der Firma, eine Klausel zu verwenden, mit der Verbraucher auf ihr gesetzliches Widerrufsrecht verzichten. Außerdem darf das Unternehmen Minderjährigen nicht mit einer Strafanzeige wegen Betrugs drohen, falls sie bei der Anmeldung ein falsches Alter angegeben haben. Auf opendownload.de bietet die Firma freie Software wie „OpenOffice.org“ und „Mozilla Firefox“ zum Download an. Die Software ist für jeden frei zugänglich und kann kostenlos heruntergeladen werden. Wer sich aber bei opendownload.de als Nutzer registriert, schließt ein Zwei-Jahres-Abonnement ab und bekommt eine Rechnung in Höhe von 96 Euro präsentiert.

Damit auch Minderjährige die Rechnung zahlen, die sich bei der Anmeldung als volljährig ausgaben, drohte die Firma mit einer Strafanzeige wegen Betrugs. Eine solche Drohung ist zur Durchsetzung gar nicht bestehender Zahlungsansprüche unzulässig, entschieden die Richter. Sie stellten auch klar, dass das gesetzliche Widerrufsrecht für diese Verträge nicht schon mit der Anmeldung ausgeschlossen werden darf.

 

Posted via web from Superglide's Personal Blog ...

Fünf Titel für mobile Unterhaltung. Samsung SGH-F480 Games Edition: Smartphone mit vorinstallierten Spielen ...

Das Handy „SGH-F480“ von Samsung gibt es für ab Mitte Juni 2009 als limitierte „Games Edition“. Vorinstalliert sind fünf Spiele als Vollversion.

Handy Samsung SGH-F480 Games Edition

Handy Samsung SGH-F480 Games Edition

Freuen dürfen sich verspielte Handynutzer über die Titel „Wer wird Millionär 2009“, „Pacman“, „Millenium
Poker“, „Dr. Brain“ und „Bejeweled Twist“. Ansonsten sind die Funktionen des SGH-F480 Games Edition mit denen der Normalausgabe identisch: Das 91 Gramm leichte Mobiltelefon wird über einen berührungsempfindlichen Bildschirm (Touchscreen) gesteuert, der eine Maximalauflösung von 240x320 Pixel bietet. Die Datenübertragung erfolgt über HSPA sowie Bluetooth. An Bord sind ein UKW-Radio, ein MP3-Player sowie eine Fünf-Megapixel-Kamera mit Fotolicht, Bildstabilisator, Gesichtserkennung und „Smile-Shot“-Funktion (Kamera löst erst aus, wenn die zu fotografierende Person lächelt).

Musik, Fotos und Videos lassen sich auf dem internen 240 Megabyte großen Speicher ablegen. Das Fassungsvermögen kann mittels MicroSD-Karten erweitert werden. Kostenpunkt für das Samsung SGH-F480 Games Edition: 399 Euro. (rs)

Posted via web from Superglide's Personal Blog ...

Festplatten optimieren ... Software-Tipp: Smart Defrag ...

 

Smart Defrag - Gratis-Tool zur Defragmentierung der Festplatte

Screenshot aus Smart Defrag

Mit der Gratis-Software „Smart Defrag“ räumen Sie Ihre Festplatte auf. Das Tool bietet zwei Modi zur Defragmentierung. Im manuellen Modus schließt die Anwendung Lücken durch das Zusammenfügen von einzelnen Datenpaketen. Ferner werden häufig genutzte Dateien für einen schnelleren Zugriff auf dem HDD zusammengelegt. Im automatischen Modus läuft „Smart Defrag“ im Hintergrund und führt diese Arbeiten selbstständig aus. (gh)

» Download: Smart Defrag kostenlos herunterladen

Posted via web from Superglide's Personal Blog ...

Können 100 Milliarden Dollar die US-Wirtschaft wirklich nachhaltig modernisieren ...?

Gerade vier Woche im Amt, unterzeichnete US-Präsident Barack Obama am 17. Februar 2009 den „American Recovery and Reinvestment Act 2009“. Das 787 Milliarden Dollar schwere Konjunkturpaket sieht rund 100 Milliarden Dollar für den Ausbau von Energie- und Informationstechnologien vor.

Davon entfallen:
– 7,2 Milliarden Dollar auf den Ausbau des Breitband-Internet,
– 11 Milliarden Dollar auf die Moderniernisierung des amerikanischen Stromnetzes und seinen Umbau zu einem „Smart Grid“,
– 20 Milliarden Dollar auf die verstärkte Nutzung elektronischer Patientendaten,
– und 60 Milliarden Dollar auf die Verbesserung der Energieeffizienz und den Übergang zu Erneuerbaren Energien.


Hier wird gezeigt hier, welche Erfolgschancen US-Ökonomen dem Programm einräumen.

100 Milliarden Dollar sind eine atemberaubende Menge Geld. Erst recht angesichts der mageren Jahre in der Förderung von Forschung und Technik im Energiesektor, die hinter uns liegen. Zum Vergleich: Wagniskapitalgeber, die Cleantech immer wieder als ihr liebstes Kind bezeichnen, investierten hier im vergangenen Jahr 4,1 Milliarden Dollar.

Das Konjunkturpaket hat dabei zwei hehre Ziele: Es soll kurzfristig die Wirtschaft ankurbeln und langfristig Wachstum ermöglichen. Präsident Barack Obama und andere Mitglieder seiner Regierung haben das Paket wiederholt mit der Notwendigkeit verknüpft, „grüne“ Jobs zu schaffen und eine Wirtschaft der „sauberen Energie“ aufzubauen.

Doch sind diese Erwartungen realistisch? Können solche enormen Fördergelder für Technologien der Wirtschaft wirklich einen Schub geben? Und kann dieser plötzliche Geldfluss tatsächlich der Auslöser sein, um neue Technologien nach vorne zu bringen?

Fast alle Ökonomen sind sich darin einig, dass der technische Fortschritt langfristig Wirtschaftswachstum mit sich bringt. Viele Verfechter der Technikförderung im Konjunkturpaket gehen noch weiter: Damit würden auch sofort neue Arbeitsplätze geschaffen. Daniel Kammen, Leiter des Labors für Erneuerbare und Angemessene Energien an der Universität Berkeley, schätzt, dass Investitionen in Erneuerbare Energien drei bis fünf Mal mehr Jobs schaffen als vergleichbare Summen, die in fossile Energien fließen. „Vor allem Energieeffizienz und Solarenergie entpuppen sich als die Branchen, die die meisten Arbeitsplätze schaffen“, sagt Kammen.

Doch nicht alle Ökonomen teilen die Begeisterung für Obamas Konjunkturpaket. Einige sehen es mit gemischten Gefühlen, ja sogar mit Bestürzung. Sie befürchten, dass die beiden Ziele der Konjunkturbelebung und des langfristigen technischen Fortschritts auf ungute Weise verquickt werden. Am Ende könnte das Paket nicht effektiv genug sein, um überhaupt eins der beiden Ziele zu erreichen.

In der makroökonomischen Theorie hat ein Konjunkturpaket eine einfache, klare Funktion: Befindet sich die Wirtschaft im Abschwung, gibt die Regierung mehr Geld aus, um die schwindende Nachfrage von Verbrauchern und Unternehmen auszugleichen. Entscheidend für seine Effektivität ist, dass es arbeitsintensive Branchen fördert und schnell wirkt. Der geplante Umbau des Stromnetzes zu einem „Smart Grid“ zum Beispiel kann beides gerade nicht: Er wird Jahre dauern und kurzfristig nichts bewirken.

Verzerrung des technischen Fortschritts?

Die Vorbehalte gegenüber der Technikförderung im Konjunkturprogramm gründen sich aber nicht nur auf solche makroökonomischen Betrachtungen. Einige Fachleute befürchten auch, dass es ausgerechnet den Technologien, die es fördern soll, sogar schaden kann.

„Wenn man daran glaubt, dass Subventionen den technischen Wandel beschleunigen, soll man sie als eigenständiges Mittel einsetzen, unabhängig von einer Konjunkturspritze“, meint Paul Romer, Ökonom am Stanford-Institut für wirtschaftspolitische Forschung. Er sieht die Gefahr, dass die massiven Geldspritzen Innovationsstrategien verhindern, die sich als effektiver erweisen könnten.

Ein Feld, das den Ökonomen in ihrer Analyse besonders sauer aufstößt, ist der Ausbau des Breitbandnetzes in Gegenden, in denen bislang keine schnellen Internetzugänge existieren. Breitbandzugänge seien da gebaut worden, wo es wirtschaftlich sinnvoll sei, sagt Shane Greenstein von der Northwestern University. „Wenn man damit in anderen Gebieten hätte Geld verdienen können, hätte es längst jemand gemacht“, urteilt er. „Wir haben 2009, nicht 2003.“

Nach einer aktuellen Stude des Pew Reserch Center in Washington sind weniger als die Hälfte aller Erwachsenen in den USA ohne Breitbandzugang. Die meisten von diesen äußern aber, dass sie einen Breitbandanschluss gar nicht wollen, entweder weil er zu teuer sei oder weil sie schlicht kein Interesse daran hätten. Nur 4,5 Prozent der US-Haushalte vermissen einen Breitbandzugang ausdrücklich.

Einen städtischen Haushalt damit zu auszustatten, kostet etwa 150 Dollar, in den Vorstädten sind es ungefähr 250 Dollar. Niemand könne jedoch die Bereitstellung eines Breitbandanschlusses in den bislang vernachlässigten Gegenden beziffern, warnt Greenstein, da die Kosten je nach Lage enorm variieren würden. Eine optimistische Schätzung seien Kosten von mindestens 1000 Dollar pro Anschluss. Bei abgelegenen Orten könnte es weit mehr sein.

Greenstein hält auch den Nutzen für die lokale Wirtschaft in diesen Gebieten für begrenzt. Nach seiner Analyse wird der größte Teil des finanziellen Gewinns durch den Breitbandausbau auf die Netzbetreiber entfallen. Profitieren würden auch Hersteller von Netztechnik oder Unternehmen wie Amazon oder Google. Die Endnutzer hingegen hätten vergleichsweise wenig davon.

Eine "Green Economy" als neue "New Economy"?

Ökonomen gehen davon aus, dass Innovationen in Wissenschaft und Technik heutzutage für 90 Prozent des Wirtschaftswachstums verantwortlich sind. Denn dank besserer Technologien lassen sich mehr Dinge billiger produzieren und neue Märkte erschließen. In anderen Worten: Sie erhöhen die Produktivität. Besonders dramatisch hat hier der Boom der Informationstechnik gewirkt, der Mitte der neunziger Jahre begann. Seit 1995 hat die Produktivität stärker zugenommen als je zuvor in der Nachkriegszeit.

Die Ökonomen haben einige Jahre gebraucht, um theoretisch nachzuvollziehen, was genau diesen Produktivitätsschub ausgelöst hat. Die abnehmenden Kosten für Hardware und Software seien es gewesen, sagt Dale Jorgenson von der Harvard University. Obwohl die IT-Ausgaben selbst nur drei Prozent des amerikanischen Bruttoinlandsproduktes ausmachten, hätten sie „eine gewaltige Wirkung“ entfacht: „Es ist im großen und ganzen die Informationstechnik gewesen, die den Produktivitätszuwachs im Boom der Neunziger ausgelöst hat, und sie zieht immer noch.“

Könnte nun eine „Green Economy“ die neue „New Economy“ werden und die Erfolgsgeschichte der IT wiederholen? Jorgenson ist skeptisch. Tatsächlich sei die gegenwärtige Situation der denkbar größte Gegensatz zu den Neunzigern, als es die Marktnachfrage war, die den Einsatz der Informationstechnik antrieb. „Viele Energietechnologien, die nun gefördert werden sollen, sind ohne Subventionen kommerziell nicht überlebensfähig“, urteilt Jorgenson. „Denn was bedeutet Subvention? Doch wohl, dass eine Technologie noch nicht gut genug ist. Sie hält den Anforderungen des Marktes nicht stand.“

Natürlich ist ein Grund für die Investitionen in den Energiesektor, etwas gegen den Klimawandel zu tun. Für Jorgenson wäre diesem Ziel besser gedient, indem Innovationen über einen Preis für das Treibhausgas CO2 stimuliert werden – entweder durch eine direkte Besteuerung, was er befürwortet, oder durch einen Emissionshandel, über den derzeit im US-Kongress beraten wird.

Nur ein Rettungsring für die Solarindustrie?

Während sich die Ökonomen der akademischen Welt den Kopf über die beste langfristige Strategie zerbrechen, haben die Unternehmer der Erneuerbare-Energien-Branche freilich ganz andere Sorgen. Für sie geht es im Moment ums nackte Überleben. Denn die Finanzkrise hat es so gut wie unmöglich gemacht, eine Finanzierung für kapitalintensive Großprojekte zu bekommen. Für Technologien wie Photovoltaik, Windkraft oder Biokraftstoffe sei die ökonomische Wetterlage „wirklich scheußlich“, sagt David Victor, Leiter des Programms für Energie und Nachhaltige Entwicklung an der Stanford University.

Das Konjunkturprogramm sieht tatsächlich eine Reihe von Hilfen für die schwächelnde Erneuerbare-Energien-Branche vor. Allein 17 Teilmaßnahmen kämen in der einen oder anderen Form der Solarindustrie zugute, sagt Howard Berke, Vorstandsmitglied und Mitgründer von Konarka, das organische Solarzellen der dritten Generation produzieren will. Zu diesen Maßnahmen gehören Steuererleichterungen, die unterm Strich 30 Prozent der Kosten für neue Solarprojekte auffangen, ein Programm staatlicher Bürgschaften für Erneuerbare Energien mit einem Gesamtumfang von sechs Milliarden Dollar sowie Investitionskredite für neue Produktionsanlagen in den USA. Der amerikanische Solarindustrie-Verband schätzt, dass all diese Maßnahmen zusammen in den kommenden zwei Jahren 110.000 Arbeitsplätze schaffen werden.

Die Gefahr ist allerdings, dass all die Regierungsdollars zwar die Erneuerbare-Energien-Branche am Leben halten, aber auch Technologien stützen, die eigentlich nicht konkurrenzfähig sind. Vor allem die Solarindustrie ist hier besonders anfällig. Photovoltaik sei nicht nur zu teuer, kritisiert Henry Lee, Leiter des Umwelt- und Ressourcen-Programms an der Harvard University. Die Forschung müsse auch langlebigere und effizientere Solarzellen entwickeln, die eine höhere Spannung erzeugen können. Lee findet die Förderung von Solar- und Windenergie im Konjunkturpaket durchaus positiv. Weil es sich aber auf bereits existierende Technologien konzentriere, könnte es notwendige Verbesserungen behindern. „Stimuliert werden sollten ja eigentlich Bemühungen, bessere Windräder und Solarkollektoren zu bauen“, sagt Lee. Stattdessen zielten die Fördergelder auf das Problem ab, „wie viele Windräder und Solarmodule sich errichten lassen.“

Was kommt nach dem Konjunkturprogramm?

Noch in diesem Jahr könnte der US-Kongress ein weiteres ehrgeiziges Gesetzespaket auf den Weg bringen, das – wie das Konjunkturpaket – die Ökonomie der Energietechnik für die nächsten Jahrzehnte prägen wird. Das könnte den Klimaschutz unterstützen.

Doch nur wenige Energieexperten glauben, dass Erneuerbare Energien schon bald und im großen Stil billig und zuverlässig genug seien, um fossile Energien zu ersetzen. Solarstrom wird wohl noch lange relativ teuer bleiben. Dasselbe gilt für fortschrittliche Biokraftstoffe – es wird noch einige Zeit dauern, bis sie den Benzinverbrauch spürbar senken können. Der Umbau des Stromnetzes wird ebenfalls Jahre in Anspruch nehmen, mindestens 100 Milliarden Dollar kosten und nur dann effektiv sein, wenn auch neue Stromspeichertechnologien vorhanden sind. Energieministier Stephen Chu betonte deshalb in einer Kongressanhörung im März, dass Technologien nötig seien, die all diese Teilbereiche „transformieren“ könnten. Dazu gehöre auch eine Photovoltaik, „die fünf Mal billiger ist als die heutige Technik“.

Soll der Übergang zu einer Cleantech-Wirtschaft wirklich ernsthaft beginnen, muss die Regierung die alte Politik konsequent hinter sich lassen. Am wichtigsten ist vielleicht, dass sie die Energieforschung auch dann fördert, wenn das Konjunkturprogramm ausläuft und die politische Unterstützung für eine massive Technikförderung abbröckelt.

Richard Lester, Leiter des Industrial Performance Center am MIT, warnt denn auch davor, allzu große Hoffnungen in das Konjunkturpaket zu setzen. Die Schwierigkeit bestehe darin, angesichts der Geldschwemme die richtigen Forschungsprojekte auszuwählen. Er geht davon aus, dass ein Großteil des Geldes nicht vernünftig ausgegeben wird. „Ich glaube nicht, dass man begriffen hat, welch gewaltige Aufgabe vor uns liegt.“ Die Neuerfindung der nationalen Energieversorgung der USA – denn um nichts weniger geht es – sei ein Projekt „mit einem Zeithorizont von mehreren Jahrzehnten“.

Quelle:

David Rotman

Posted via web from Superglide's Personal Blog ...

Ab Juli im Handel Lenovo ... IdeaPad S12: Schlankes 12-Zoll-Netbook ...

Mit dem „IdeaPad S12“ bringt Lenovo ein neues Mini-Notebook auf den Markt.

Mini-Notebook Lenovo IdeaPad S12

Mini-Notebook Lenovo IdeaPad S12

Das Gerät, das vom Hersteller als Netbook bezeichnet wird, ist mit einem Zwölf-Zoll-Bildschirm und einer Tastatur in normaler Größe ausgestattet. Der Akku soll bis zu sechs Stunden nonstop durchhalten.  Mit einer Höhe von weniger als 25 Millimetern sei es das derzeit schlankste Notebook in der Zwölf-Zoll-Klasse.

Das etwa 1,36 Kilogramm leichte S12 ist unter anderem mit einer 160-Gigabyte-Festplatte ausgestattet und wird mit Lenovos „OneKey Rescue System“ Daten und Systemeinstellungen wiederherstellen. Darüber hinaus wartet das Mini-Notebook mit einem Speicherkartenleser und einem Touchpad mit Multi-Touch-Funktionalität (Navigation durch Fingergesten) auf. Das Lenovo IdeaPad S12 kann ab Anfang Juli zu einem empfohlenen Verkaufspreis von 469 Euro bezogen werden. (rs)

Posted via web from Superglide's Personal Blog ...

Journalisten-Verband fordert strafrechtliche Konsequenzen! Werbe-Skandal: Bahn gab 1,3 Mill. Euro für verdeckten Lob aus ...

Die Deutsche Bahn hat im Jahr 2007 knapp 1,3 Millionen Euro für verdeckte PR-Beiträge ausgegeben, um ihr Image zu verbessern.

Zu den Aktivitäten zählten Blog-Einträge, Leserbriefe, Meinungsumfragen und fertige Medienbeiträge, wie der Konzern am 28. Mai in einer Mitteilung einräumte. Fahnen mit dem Logo der Deutschen Bahn Die Deutsche Bahn kommt nicht aus den Negativ-Schlagzeilen heraus.

Der neue Bahn-Chef Rüdiger Grube erklärte, er lehne diese Form der PR „entschieden ab“. Es würden umgehend Konsequenzen gezogen, „um auch hier den zugesagten Neubeginn in der Unternehmenskultur zu dokumentieren“. Der Deutsche Journalisten-Verband (DJV) forderte strafrechtliche Konsequenzen für die Verantwortlichen.

Die Initiative LobbyControl teilte in Köln mit, dass die Lobby-Agentur „European Public Policy Advisers“ (EPPA) von der Bahn mit den PR-Maßnahmen beauftragt worden sei. EPPA habe wiederum die „Denkfabrik Berlinpolis“ hinzugezogen. LobbyControl-Vorstand Ulrich Müller sagte, diese Methoden der „Manipulation von Öffentlichkeit und Politik“ seien inakzeptabel.

Die Bahn müsse umgehend alle verdeckten PR-Aktivitäten offenlegen, die mit ihren Finanzmitteln durchgeführt worden seien. Der DJV-Bundesvorsitzende Michael Konken erklärte, die Vorgänge seien „kein Kavaliersdelikt, sondern ein handfester Skandal“. Wenn die Bahn mit Hilfe manipulierter Medienbeiträge versucht habe, die öffentliche Meinung in ihrem Sinne zu beeinflussen, müssten sich die Gerichte damit befassen. Diejenigen Bahn-Verantwortlichen, die die Manipulation der Öffentlichkeit betrieben hätten, dürften „keinesfalls weiterhin als Ansprechpartner der Journalisten fungieren“, forderte Konken. (epd/rs)

Posted via web from Superglide's Personal Blog ...

CI Plus wird bis Ende 2009 bei Kabel Deutschland eingeführt ...

Spätestens zum Weihnachtsgeschäft will Kabel Deutschland CI Plus einsetzen. Premiere/Sky hingegen hält sich mit Aussagen noch zurück.

Deutschlands größter Kabelnetzbetreiber plant bis zum Ende des Jahres erste CI-Plus-Module für sein TV-Angebot einzusetzen. "Wir sind in der Endphase der Tests", erklärte Christoph Schaaf, Leiter New Technologies bei Kabel Deutschland, auf der Anga Cable Convention im Panel "CI Plus - Was steckt hinter der nächsten Generation des Common Interface?" Es gehe laut Schaaf noch darum, den Anforderungen des Jugendschutzes in Deutschland zu genügen.
 

Dahingegen hält sich Premiere/Sky mit Aussagen zum Common-Interface-Nachfolger zurück. "Wir begrüßen grundsätzlich jede Maßnahme, die zu mehr Sicherheit für Inhalte führt", sagte Sabine Christmann, Director Recht & Regulierung bei Premiere auf dem selben Panel in Köln. Insbesondere bei der Verbreitung von HDTV fehle hierzu noch die Zustimmung der Hollywood-Studios.

Quelle:

http://www.digitalfernsehen.de

Posted via web from Superglide's Personal Blog ...

Wo Risikokapitalgeber in der Krise noch investieren ...

Seit Beginn der Wirtschaftskrise steht es um die Finanzierung junger IT-Firmen deutlich schlechter als noch vor einem Jahr. Besonders schlimm traf es Amerika: Die dortigen Risikokapitalgeber, sonst um eine kontinuierliche Geldversorgung von Start-ups im Silicon Valley und anderen wichtigen US-High-Tech-Regionen bemüht, geben sich seit Monaten klamm. Doch es gibt auch erste Hoffnungsschimmer. Zwei aktuelle Börsengänge zeigen, dass es durchaus noch Geld für gute Ideen gibt.

Im vierten Quartal 2007 gab es noch 17 risikokapitalfinanzierte US-Firmen, die den Schritt an die Wall Street wagten. Das war seit dem Ende der Dot-Com-Blase 2000/2001 der größte entsprechende Anstieg an Börsengängen. Im letzten Quartal 2008 und im ersten Quartal 2009 ging dagegen gar nichts mehr an den Märkten, in keiner der von den Mitgliedern der National Venture Capital Association finanzierten Industrien wurde der Schritt an NASDAQ oder NYSE gewagt. Auch das Geschäft mit Firmenaufkäufen und Fusionen von Unternehmen verlangsamte sich deutlich. Hinzu kam, dass die Anzahl der Risikokapitalfonds, die Anfang 2009 frisches Geld aufnahmen, auf das Niveau von 2003, einem Krisenjahr für die Branche, einbrach.

Das soll nun alles anders werden. Zwei Börsengänge sorgten für eine Aufhellung der trüben Stimmung in der US-Risikokapitalszene. SolarWinds, eine Firma aus Texas, die sich auf Netzwerkmanagement-Software spezialisiert hat, gelang der Gang an die New Yorker Börse am letzten Donnerstag. Einen Tag später folgte der Online-Restaurant-Reservierungsservice OpenTable aus San Francisco.

Risikokapitalgeber, die sich in der vergangenen Woche auf der Fachkonferenz "Venture Summit East" in Boston trafen, sahen diese Entwicklung als positives Zeichen für die gesamte Branche – und gaben sich optimistisch, dass auch andere junge Technologiefirmen ein entsprechendes Potenzial hätten.

"SolarWinds ist ein Beweis dafür, dass der Sofware-as-a-Service-Sektor (SaaS) funktioniert", meinte Sunil Dhaliwal, General Partner bei Battery Ventures. Statt physische Programme zu verkaufen, vertreibt das Unternehmen Produkte, die über das Internet angeboten und gepflegt werden. Noch immer gibt es Marktbeobachter, die hinterfragen, ob sich dieses Geschäftsmodell wirklich lohnt, insbesondere weil es noch so viele alteingesessene Konkurrenten mit traditionellem Vertrieb gibt. Laut Dhaliwal lautet die Antwort "uneingeschränkt ja".

Der Enthusiasmus für Web-Firmen hat sich seit den Hochzeiten des Web 2.0 jedoch stark verändert. Der Grund liegt nicht nur in der aktuellen Wirtschaftskrise, sondern auch darin, dass die Investitionskosten fallen. Dank Cloud Computing kann ein Start-up billig Server im Internet anmieten, um seine Dienste anzubieten. Da braucht es einfach auch weniger Startkapital von Risikokapitalgebern und anderen Außenstehenden.

Jeff Fagnan, Partner bei Atlas Venture, hatte dazu auf der "Venture Summit East" eine glasklare Meinung: "Ich denke, dass die meisten Web-Start-ups kein Risikokapital aufnehmen sollten", sagte er auf einem Panel. Dazu gehörten insbesondere Unternehmen, die leichtgewichtige Internet-Anwendungen oder Software für Mobilgeräte wie das iPhone entwickelten. In einigen Fällen könne Risikokapital sogar dazu führen, dass eine junge Firma Schaden davon trägt: Der Druck von außen und die Ansprüche der Investoren seien dann zu groß.

Der Siegeszug des Cloud Computing hat aber auch noch andere Auswirkungen. So mögen viele Risikokapitalgeber inzwischen kein Geld mehr in Firmen stecken, die planen, selbst eine große eigene Infrastruktur aufzubauen, anstatt sie billig zu mieten. Michael Skok, General Partner bei North Bridge Venture Partners, meint, er würde heute keine Firma mehr anfassen, die plane, mit Cloud Computing-Riesen wie Amazon oder Google zu konkurrieren. "Das ist für ein Start-up einfach unmöglich."

Was junge Technologiefirmen aber tun können, so der Finanzier, sei das Ausfüllen einer wichtigen Rolle auf dem Gebiet der Forschung und Entwicklung. "Da herrscht in der ganzen Industrie Bedarf." Für jeden Dollar, der bei der Speicherung von Daten aufgewendet wird, müssten Konzerne typischerweise zwischen 11 und 15 Dollar für Dinge wie Datensicherung und Datenmanagement aufwenden. Ein Start-up, das neue Techniken entwickle, die diese permanente Ineffizienz von IT-Infrastrukturen beheben, sei etwas, das er noch suche: "Software ist noch lange nicht tot." Start-ups benötigten allerdings eine derart gelungene Geschäftsidee, dass sie auch in mageren Zeiten auf sich gestellt überleben könnten. Sich einfach darauf zu verlassen, bald von einem Konzern geschluckt zu werden, sei heutzutage unangemessen.

Larry Cheng, Partner bei Fidelity Ventures, interessiert sich ebenso wie Skok für Systeme zur Optimierung bestehender IT-Infrastrukturen. Die Virtualisierung, bei der es möglich ist, mehrere virtuelle Computer auf ein und derselben physischen Maschine laufen zu lassen, sei ein solcher wichtiger Trend. Aktuell seien Teile der dahinter liegenden Technik aber bereits veraltet. "Die ganze Infrastruktur, die die Virtualisierung unterstützt, muss sich ändern." Weitere Chancen für junge iT-Firmen sieht er auch im Sicherheitsbereich.

Die Stimmung unter Software-Entwicklern und Internet-Investoren scheint auch von den Erfahrungen der ersten Web-Blase geprägt zu sein. Cheng ist jedoch optimistisch, was die aktuelle Marktlage anbelangt. Der Hype sei gewichen. Im Bereich der grünen Technologie sieht er hingegen ein Maß an Spekulation, das an alte Dot-Com-Zeiten erinnere – Ausgang ungewiss. "Firmen werden weiter Milliarden in die IT stecken, gleichzeitig aber immer nach Wegen suchen, Kosten zu sparen. Der Sektor ist sehr stabil."

Quelle:

Erica Naone

Posted via web from Superglide's Personal Blog ...

Bitteres Ende einer Mega-Fusion ... Time Warner will sich von AOL trennen ...

Der US-Medienkonzern Time Warner plant, sich bis spätestens Anfang 2010 vom Onlinedienst America Online (AOL) zu trennen.

Time Warner Center: Hauptsitz des Medienkonzerns in New York

Time Warner Center: Hauptsitz des Medienkonzerns in New York

Time Warner will sich künftig auf sein Kerngeschäft mit Medieninhalten konzentrieren. Der Konzern sucht bereits seit längerem nach einem Käufer für die kriselnde Internetsparte. In einer beispiellosen Übernahme zum zeitlichen Höhepunkt des Internet-Booms 2001 hatte der Internetanbieter AOL den Medienkonzern Time Warner gekauft – für 147 Milliarden US-Dollar (circa 105 Milliarden Euro). Mit dem Platzen der Internet-Blase führte der Deal jedoch zu gigantischen Verlusten und das Internet-Unternehmen wurde nur noch zu einer Sparte des Medienkonzerns Time Warner.

Nun soll AOL als unabhängiges, börsennotiertes Unternehmen weitergeführt werden. Vor der Veräußerung will Time Warner seinen Anteil an dem Internetdienstleister von 95 auf 100 Prozent erhöhen. Die ausstehenden fünf Prozent hält derzeit der Suchmaschinenanbieter Google. Im ersten Quartal 2009 war bei AOL der operative Gewinn – das ist der Gewinn aus dem Kerngeschäft mit Internetzugängen – um fast 50 Prozent auf 150 Millionen Dollar (etwa 107 Millionen Euro) eingebrochen. Der Umsatz fiel um knapp ein Viertel auf 867 Millionen Dollar (circa 620 Millionen Euro).

Time Warner ist bereits seit mehreren Jahren unzufrieden mit der Entwicklung von AOL. Auch der Versuch mit Online-Werbung Geld zu verdienen blieb erfolglos. Wirtschaftlich gesehen stand die Elefantenhochzeit von Beginn an unter einem schlechten Stern: Die AOL- und die Time Warner- Aktienkurse fielen nach der Fusionsankündigung deutlich, so dass sich der Wert der Transaktion bis zu ihrem Abschluss bereits erheblich reduzierte. Ein Jahr später verbuchte der neue Medienkonzern aufgrund von Wertberichtigungen einen Verlust von unglaublichen 98,7 Milliarden Dollar. (dpa/gh)

Posted via web from Superglide's Personal Blog ...

Google Wave: Neue Art der Kommunikation und Zusammenarbeit im Internet ...

Auf einer Google-Konferenz in San Francisco haben Entwickler einen Vorgeschmack auf „Google Wave“ erhalten. Mit Google Wave soll folgende Frage gelöst werden: Wie würde eine einzelne, zentrale Kommunikationsplattform aussehen, die ganz neu unter dem Aspekt einer effektiveren Kommunikation im Internet aufgebaut wird?

Wave bietet mehreren Nutzern gleichzeitig die Möglichkeit, sich in Echtzeit zu unterhalten und Informationen wie Fotos, Videos, Dokumente oder in sonstiger Form auszutauschen – und das alles an einem gemeinsamen Treffpunkt im Internet – der „Wave“. Jeder Eingeladene kann eine Antwort eintragen oder bearbeiten und verfolgen, was die Wave-Kollegen tippen. Eine Google Wave lässt sich sogar in einem Blog oder auf einer Internetseite veröffentlichen. Dabei werden Neueinträge oder Änderungen sofort angezeigt. Das Ziel ist es, eine neue und schnellere Form der Kommunikation und Zusammenarbeit mit zusätzlichen Möglichkeiten zu schaffen.

Google Wave enthält unter anderem:

  • Parallele Textbearbeitung: Fast sofort erscheint auf dem Bildschirm, Buchstabe für Buchstabe, was die Wave-Kollegen in eine Nachricht oder ein Dokument eintippen.
  • Wiedergabe-Funktion: Verfolgen Sie am Bildschirm, wie sich die Unterhaltungen und der Inhalt einer Wave im Laufe der Zeit entwickelt haben.
  • Integration in das gesamte Internet: Google Wave kann über unsere offenen Programmierschnittstellen (APIs) in andere Internetseiten eingebettet oder mit Anwendungen anderer Entwickler kombiniert werden. Eine Wave soll sich nahtlos in das Internet einfügen.

Google Wave ist ab sofort für Entwickler zugänglich; die Veröffentlichung ist für die nächsten Monate geplant. (rs)

Posted via web from Superglide's Personal Blog ...

Donnerstag, 28. Mai 2009

aktuelle ARD/ZDF-Onlinestudie 2009 ...

Nachfrage nach Videos und Audios im Internet steigt weiter. 67 Prozent der Deutschen sind bereits online ...

Kennzeichnend für die aktuelle Internetentwicklung ist die stetig steigende Nachfrage nach multimedialen Inhalten. 62 Prozent (2008: 55 Prozent) aller Onliner rufen Videos, zum Beispiel über Videoportale oder Mediatheken, ab und schauen live oder zeitversetzt Fernsehsendungen im Internet. 51 Prozent (2008: 43 Prozent) hören Audiofiles wie Musikdateien, Podcasts und Radiosendungen im Netz.

Zu diesem Ergebnis kommt die bundesweit repräsentative ARD/ZDF-Online-Studie 2009, für die im März / April dieses Jahres 1.806 Erwachsene in Deutschland befragt wurden. Die seit 1997 jährlich durchgeführte Studie hat sich als Messlatte für die Internet-Entwicklung in Deutschland etabliert.

Der Intendant des Hessischen Rundfunks und Vorsitzende der ARD/ZDFMedienkommission Dr. Helmut Reitze betont, dass ein Großteil der Audio- und Videonutzung zeitsouverän – also unabhängig von vorgegebenen Programmschemata der Fernseh- und Hörfunkprogramme erfolgt: „Unser Publikum nutzt – häufig Monate später – Audio- und Videobeiträge oder Sendungen, die wir online bereitstellen. Den Erwartungen der Nutzer, jederzeit und überall auf unsere Inhalte zugreifen zu können, kommen wir mit unseren Mediatheken entgegen. Durch die Mediatheken kann unser Publikum nicht nur verpasste Sendungen im Nachhinein im Internet ansehen oder anhören. Gleichzeitig können alle Bürgerinnen und Bürger über unsere in Qualität und Vielfalt einzigartigen Inhalte – für die sie bereits Gebühren bezahlt haben - an der Informations- und Wissensgesellschaft teilhaben.“


ZDF-Intendant Markus Schächter, stellvertretender Vorsitzender der ARD/ZDFMedienkommission:„Rund ein Fünftel aller Internet-Nutzer sieht sich zeitversetzt Fernsehsendungen in Mediatheken an und bei den 14- bis 29-Jährigen sind es bereits über ein Drittel. Allein mit unserer ZDFmediathek erzielen wir im ersten Quartal 2009 rund 14,5 Mio. Sichtungen und erreichen damit im Vergleich zum Fernsehen überwiegend jüngeres Publikum. Dies bestätigt noch einmal unsere Strategie über viele Ausspielwege möglichst alle Zielgruppen zu erreichen.“


Der Anteil der Internet-Nutzer in Deutschland ist auf 67,1 Prozent (2008: 65,1 Prozent) angestiegen. 43,5 Millionen der bundesdeutschen Erwachsenen sind online - 0,8 Millionen mehr als im Vorjahr. Die größten Wachstumspotenziale werden auch weiterhin von der älteren Generation ausgehen: 96,1 Prozent der 14- bis 29-Jährigen nutzen regelmäßig das Internet, unter den 30- bis 49-Jährigen sind es 84,2 Prozent und bei den Über-50-Jährigen liegt der Anteil der Internet-Nutzer mittlerweile bei 40,7 Prozent.
www.ard.de/
www.zdf.de/

Posted via web from Superglide's Personal Blog ...

Premiere verliert Rechtsstreit gegen Kathrein um über 26 Millionen Euro ...

Im Streit um 26 Millionen Euro Vertragsstrafe hat sich Premiere nicht gegen das Unterhaltungselektronikunternehmen Kathrein durchsetzen können.

Das Landgericht München I wies am Donnerstag in einem Zivilprozess die Klage der Pay-TV-Plattform ab. Premiere hatte Kathrein vorgeworfen, an der Produktion von Gerätschaften beteiligt gewesen zu sein, durch die sich das Premiere-Programm kostenfrei empfangen ließ.

 
Kathrein hatte von 2003 bis 2007 mit Zustimmung von Premiere Receiver zum Empfang des Programms hergestellt. Premiere warf der Film im Prozess vor, an einem dritten Unternehmen beteiligt gewesen zu sein, das fast 220 000 Schwarzseh-Vorrichtungen aus China eingeführt haben soll. Dies sei eine Verletzung der Produktionsverträge. Das Gericht sah die Vorwürfe jedoch nicht als erwiesen an. Kathrein selbst habe auch keine Umgehungsvorrichtungen vertrieben.

Das Urteil ist noch nicht rechtskräftig. (ddp)

 

 

Posted via web from Superglide's Personal Blog ...

Microsofts Zune HD nicht für Deutschland geplant ...

Microsoft wird auch seinen neuen Mediaplayer Zune HD vorerst nicht in Deutschland auf den Markt bringen.

Es gebe keine Pläne, den Zune auch in Europa zu vermarkten, sagte Microsoft- Sprecher Felix Petzel heute. Ungewiss sei es auch, ob der Zune überhaupt jemals außerhalb der USA verfügbar sein wird. Eine Neuauflage seines Mediaplayers mit hochauflösendem Display hatte Microsoft in dieser Woche für den Herbst angekündigt.
 
Der Zune war Ende 2006 als möglicher Herausforderer von Apples iPod angetreten, schaffte es allerdings bis heute nur auf einen Marktanteil im unteren einstelligen Bereich. Bis heute blieb der Player zudem nur Kunden in Nordamerika vorbehalten.

Der neue Zune HD soll mit einem berührungsempfindlichen Display und einem Radio- Empfänger ausgestattet sein und sich zu einem mobilen Multimedia-Gerät wandeln. Dazu will Microsoft seine Online-Spieleplattform Xbox Live zu einer umfangreichen Plattform für TV-Sendungen, Videos, Spielen und Musik unter dem Label Zune ausbauen. Nutzer des Zune HD sollen mobil auf die Inhalte zugreifen können.

Posted via web from Superglide's Personal Blog ...

Yahoo weiter offen für Einigung mit Microsoft ...

Yahoo ist weiter offen für eine Zusammenarbeit mit Microsoft im Bereich der Internet-Suche, wie Firmenchefin Carol Bartz auf einer Konferenz der Zeitung „The Wall Street Journal“ in Kalifornien sagte.

Yahoo-Chefin Carol Bartz

Yahoo-Chefin Carol Bartz ist unter Umständen zu einer Kooperation mit Microsoft bereit.

Für diese Kooperation müssten allerdings gewisse Bedingungen erfüllt sein, dazu gehöre auch jede Menge Geld, sagte Bartz. Die Zusammenarbeit müsse zu einer Bereicherung für Yahoo werden und dem Unternehmen Zugriff auf die „richtigen Daten“ geben.

In der Vergangenheit betonte Yahoo immer, dass es Zugriff auf die aus den Suchanfragen gewonnenen Daten brauche, um effektive Werbung anbieten zu können. Auf die Frage, ob ob Yahoo weiter mit Microsoft spreche, sagte sie: „Ja, ein bisschen.“ Im vergangenen Jahr hatte Microsoft bis zu 47,5 Milliarden Dollar für Yahoo geboten, was der damalige Chef und Yahoo-Mitgründer Jerry Yang aber ablehnte. Yahoo verlor danach an der Börse zwei Drittel seines Werts.

Microsoft werkelt aktuell an einer neuen Suchmaschine: "Bing". Der Start wird für Ende Mai/Anfang Juni 2009 erwartet. (dpa/rs)

Posted via web from Superglide's Personal Blog ...

Online-Musikshops im Vergleichstest: Amazon MP3 besser als iTunes ...?

Seit ein paar Wochen bietet der Online-Versandhändler Amazon auch MP3-Songs zum Download an – in hoher Wiedergabequalität und natürlich ohne Kopierschutz. Fachzeitschriften haben „Amazon MP3“ und den „iTunes Store“ von Apple im direkten Vergleich getestet. Ergebnis: Amazon heizt dem Platzhirsch mächtig ein!

Screenshot Amazon MP3

Die Musik-Downloads bei Amazon überzeugten im Test auf Anhieb.

Wer günstige und qualitativ erstklassige Musikdateien sucht, die ohne Einschränkungen auf allen Abspielgeräten funktionieren, wird bei Amazon schnell fündig. Allerdings fehlen Zusatzangebote wie Musikvideos oder Kinofilme zum Herunterladen und die Musikauswahl war während des Tests nicht so groß wie beim Konkurrenten iTunes. Dennoch: Zum Start ist eine Trefferquote von 93 Prozent in den Single-Charts kein schlechtes Ergebnis. Noch bessere Noten bekam Amazon an der Kasse: Alle getesteten Stücke und Alben waren günstiger als bei iTunes. Amazon bietet aber noch mehr als niedrige Preise. Dazu gehört vor allem der Verzicht auf die Speicherung von Kundeninformationen in den Kopfzeilen der heruntergeladenen Titel.

Dank des breiten Angebots, der günstigen Preise und dem Verzicht auf die Datensspeicherung holte sich Amazon MP3 mit der „guten“ Testnote 1,83 bei Computer-Bild den Sieg im direkten Vergleichstest.

Posted via web from Superglide's Personal Blog ...

Neue Bedienoberfläche, Turbo-Modus ... Opera 10: Details zum neuen Gratis-Browser ...

Die Entwickler des Gratis-Browsers „Opera“ arbeiten derzeit an der neuen Version 10. Die soll eine frische Benutzeroberfläche erhalten und durch „Opera Turbo“ Seiten auch bei geringer Internet-Geschwindigkeit zügig laden.

Screenshot aus Opera 10

Opera 10: Neues Design und dank Turbo-Funktion schneller Seitenaufbau.

Bis zur Veröffentlichung der finalen Version dauert es wohl noch etwas; im Web steht aber eine Testversion (Snapshot) zum Ausprobieren zur Verfügung. Die Fassung fährt aber nur einen Bruchteil der Änderungen auf, die Opera 10 letztlich enthalten soll.

Neben der komplett überarbeiteten Bedienoberfläche möchte der Browser vor allem mit der Funktion Opera Turbo punkten. Bei dieser Technik werden Online-Angebote nicht direkt aus dem Internet auf den PC oder das Mobiltelefon übertragen, sondern zunächst an einen sogenannten Proxy-Server geschickt, der unter anderem speicherintensive Bilder herunterrechnet und erst dann an Opera 10 weitergibt. Hierdurch soll auch bei langsamer Internet-Verbindung ein schneller Seitenaufbau gewährleistet sein. Nachteil von Opera Turbo: Bilder erscheinen zum Teil in schlechter Qualität, da durch die Komprimierung viele Details verloren gehen. (rs)

» Opera 10: Snapshot-Version aus dem Internet laden

Posted via web from Superglide's Personal Blog ...

Kostenloses Datenrettungsprogramm ... Software-Tipp: Recover Files ...

Software-Tipp: Recover Files

Screenshot aus Recover Files.

Mit der Gratis-Software „Recover Files“ spüren Sie versehentlich gelöschte Dateien auf und stellen diese wieder her. Die Anwendung durchsucht ein zuvor ausgewähltes Laufwerk und listet die gefundenen Daten übersichtlich auf. Praktisch: Recover Files zeigt an, wie gut die Chancen für eine Wiederherstellung stehen. Die Anwendung verfügt über Filterfunktionen, mit denen Sie Ihre Suche einschränken. (gh)

» Download: Recover Files kostenlos herunterladen

Posted via web from Superglide's Personal Blog ...

Produktpräsentation im September? Neues Gerücht: iPod nano 5G mit eingebauter Digitalkamera ...

Während die Apple-Fans ungeduldig auf das neue „iPhone 4G“ warten, werden parallel bereits Spekulationen zur nächsten iPod-Generation angestellt. Angeblich wird der „iPod nano 5G“ mit einer kleinen Digitalkamera ausgestattet.

Phantombild Apple iPod nano 5G

Sieht so der neue iPod nano aus? Foto: ilounge.com

Im Internet geistern, passend zu diesem Gerücht, auch schon erste Erlkönig-Bilder herum. Zu sehen ist die Rückseite des iPod nano, in die ein kleines Objektiv eingelassen ist. Ob es sich um eine Fälschung handelt oder um ein sehr frühes echtes Produktfoto, ist nicht klar. Traditionell verrät Apple im Vorfeld keine Produktdetails, sondern rückt mit den Infos erst dann heraus, wenn die Geräte fertig sind und offiziell vorgestellt werden. Das wird aller Voraussicht nach im September geschehen; im Spätsommer zeigt Apple in jedem Jahr neue iPod-Modelle für die kommende Weihnachtssaison.

Die Fans fiebern aber natürlich zunächst der Präsentation des neuen iPhones (Codename: iPhone 4G) entgegen. Das Multimedia-Handy wird im Vergleich zum Vorgänger wohl mit mehr Speicher (bis zu 32 Gigabyte), einer besseren Kamera (3,2 statt 2,0 Megapixel Auflösung) sowie einer Videoschnittfunktion ausgestattet. Insider glauben, dass Apple das iPhone 4G am 8. Juni im Rahmen der Entwicklerkonferenz WWDC vorstellt. (rs)

Posted via web from Superglide's Personal Blog ...

Darf es Eigentum an menschlicher DNA geben ...?

Der Streit um Gen-Patente beschäftigt derzeit auch die Justiz: Anfang Mai reichte die Amerikanische Bürgerrechtsunion, ACLU, eine Klage gegen die Firma Myriad Genetics ein, weil die einen Gentest auf Brustkrebs patentiert hat. Für mich ein Anlass, noch einmal die Frage aufzuwerfen: Darf es Eigentum an menschlicher DNA geben?

Seit Jahren ringen Patentrechtler und -behörden mit dem Problem, wie existierendes Patentrecht auf die Entdeckung von Genen anzuwenden sei, die gute Krankheitsindikatoren sein könnten. Der juristische Knackpunkt: Handelt es sich bei diesen Entdeckungen um Bestandteile der Natur, die nicht patentierbar sind? Oder können Diagnoseverfahren, die sich auf ein bestimmtes Gen stützen, doch geistiges Eigentum sein?

Das US-Patent- und Markenamt folgt gegenwärtig beiden Ansichten gleichzeitig. Es gewährt kein Patent etwa auf mein persönliches BRCA1-Gen. Hingegen hat es Myriad Genetics ein Patent auf eine mutierte Gensequenz erteilt, die auf Brustkrebs hindeutet. Diese spezielle Sequenz kann in Tests mit den Genversionen von Patienten verglichen werden, um die fragliche Mutation aufzuspüren.

ACLU argumentiert nun gemeinsam mit einer Gruppe von weiteren Klägern – darunter Ärzte, Patientengruppen und Wissenschaftsorganisationen – , dass dies ein Fehler sei. „Die Regierung sollte keinem privaten Akteur die Kontrolle über so etwas Persönliches und Grundlegendes wie unsere Gene erlauben“, führt ACLU-Direktor Anthony Romero zur Begründung an. „Mehr noch, Patente, die das Lernen, die Forschung und den freien Austausch von Informationen einschränken, verletzten den Ersten Verfassungszusatz.“ Der 1791 zur US-Verfassung hinzugefügte Artikel verbietet unter anderem jede Einschränkung der Meinungsfreiheit.

Die Befürworter des Myriad-Patents wenden dagegen ein, dass Unternehmen ohne geistige Eigentumsrechte kein Geld mehr ausgeben würden, um Gentests für Krankheiten zu entwickeln und auf ihre Wirksamkeit hin zu überprüfen. Denn die Kosten hierfür können in die Millionen gehen.

Beide Standpunkte blenden jedoch einen Sachverhalt aus: Die Diagnose von Krankheiten mittels Genetik ist bislang keine wissenschaftlich ausgereifte Technologie. Erst im vergangenen Monat wies das New England Journal of Medicine darauf hin, dass Tausende von potenziellen Genmarkern für Diabetes, Herz- und andere Krankheiten bislang noch gar nicht klinisch getestet worden seien.

Der BRCA1-Test von Myriad Genetics ist bislang einer von wenigen, für die in klinischen Studien validiert worden ist, dass sich damit ein Risikofaktor für eine verbreitete Erkrankung ermitteln lässt. Das gelang dem Unternehmen auch deshalb, weil es über Jahre Daten erhoben hat, um die Nützlichkeit des Tests zu belegen, und Ärzte überzeugen konnte, den Test anzuwenden.

Die meisten anderen DNA-basierten Diagnoseverfahren haben einen recht eingeschränkten Anwendungsbereich. Ein Brustkrebstest wird zum Beispiel in Verbindung mit dem Medikament Herceptin eingesetzt. Er funktioniert nur bei Frauen, bei denen das HER2-Gen überexprimiert wird. Andere Gentests sind auf seltene genetisch bedingte Erkrankungen wie das Tay-Sachs-Syndrom oder Chorea Huntington ausgelegt. Selbst der Myriad-Test identifiziert nur eine seltene Brustkrebsvariante, die bei weniger als zehn Prozent der Patientinnen auftritt (in den USA gibt es rund 200.000 Brustkrebserkrankungen pro Jahr).

Dass es so wenige verbreitete Tests gibt, lässt sich nicht auf einen Mangel an Patenten zurückführen. In den vergangenen Jahren hat das US-Patent- und Markenamt auf etwa 20 Prozent aller menschlichen Gene Patente erteilt. Darunter sind solche, die mit Krankheiten wie Alzheimer, Asthma oder Darmkrebs in Verbindung gebracht werden.

Robert Cook-Deegan, Genetiker an der Duke University und Co-Autor verschiedener Paper über geistiges Eigentum an Genen, hält die wissenschaftlichen Grundlagen, anhand derer Genmarker mit Krankheiten verbunden werden, schlicht für zu unausgereift. „Bei den meisten Markern ist die ursächliche Verbindung zu einer Krankheit schwach.“ Die Ursachen sind komplex und schließen viele verschiedene Gene und Umweltfaktoren ein.

Dies zeigt, dass der zu erwartende Aufruhr im Fall ACLU vs. Myriad am eigentlichen Problem vorbeigeht: Wie ist nötig, um die Tausende von Biomarkern, die in Datenbanken vor sich hin dümpeln, klinisch zu validieren?

Meines Erachtens könnte die Lösung eine Regierungsinitiative sein, die dieses noch junge Wissenschaftsgebiet fördert. Entweder mit einem Programm wie beim Human-Genom-Projekt oder mit Fördermitteln, die Unternehmen ermutigen, den Sprung zu wagen. Der zweite Ansatz hat mit dazu beigetragen, dass Erforschung, Entwicklung und Produktion neuer Impfstoffe wieder in Gang gekommen sind.

Die Ergebnisse dieses klinischen Validierungsprojekts sollten als öffentliches Knowhow zur Verfügung gestellt werden. Private Unternehmen könnten sie für einen gewissen Zeitraum pachten, wenn sie im Gegenzug einen Test entwickeln und auf den Markt bringen. Sie müssten auf Regeln verpflichtet werden, die es Dritten gegen eine angemessene Gebühr ermöglichen, den Test anzubieten und auszuwerten.

Die Weigerung von Myriad Genetics, eine Lizenz auf seinen Test zu erteilen, ist ein wesentlicher Grund für die jetzige Klage. Ein anderer sind die 3000 Dollar, die es für den Test verlangt. Das Modell einer öffentlichen Wissensbasis würde die beunruhigende Aussicht erträglicher machen, dass etwas so Grundlegendes wie die menschlichen Gene Privateigentum sein können – obwohl es sich noch als unsinnig herausstellen könnte, weil sich Krankheitsursachen zunehmend als komplizierte Interaktion aus Genen und anderen Faktoren heraustellen.

In dem Prozess selbst wird es zwar nicht um Alternativen zu Gen-Patenten gehen. Aber als Teil einer größeren Debatte müssen wir uns damit beschäftigen, wie wir die Wissenschaft noch besser voranbringen und wie wir die uralte Spannung zwischen Privateigentum und öffentlichem Wohl kreativ lösen.

David Ewing Duncan ist Autor des im März 2009 bei Wiley & Sons erschienenen Buches „Experimental Man. What One Man's Body Reveals about His Future, Your Health, and Our Toxic World“.

Quelle:

David Ewing Duncan

Posted via web from Superglide's Personal Blog ...

Urlaubssperre bei T-Mobile ... Gerücht: Apple iPhone 4G kommt am 15. Juni auf den Markt ...

T-Mobile bereitet sich angeblich auf die Veröffentlichung des neuen „iPhone 4G“ von Apple vor. Das Multimedia-Handy soll demzufolge ab dem 15. Juni bei uns zu haben sein.

Apple iPhone 3G

Apple werkelt mit Hochdruck am neuen iPhone; im Bild das iPhone 3G.

Wie das Online-Portal „iPhone-Ticker“ meldet, hat T-Mobile aus diesem Anlass eine Urlaubssperre für PR-Mitarbeiter und einige Vertriebspartner verhängt. Offenbar benötigt man alle Angestellten, um den Verkauf des iPhone 4G gebührend zu unterstützen. Sollte sich der Termin bestätigen, spricht auch alles dafür, dass Apple am 8. Juni auf der Entwicklerkonferenz WWDC das neue iPhone 4G offiziell vorstellen wird. Vermutlich soll es unter anderem mit 32 Gigabyte Speicher, einer 3,2-Megapixel-Kamera, einem Kompass und einer Videoschnittfunktion aufwarten.

Superglide´s Blog wird für Sie die Eröffnung der WWDC am 8. Juni 2009 verfolgen und sofort über alle Neuigkeiten berichten, wenn sie verfügbar sind. (rs)

» Brodelnde Gerüchteküche: Erste Infos zum Apple iPhone 4G

Posted via web from Superglide's Personal Blog ...

Mittwoch, 27. Mai 2009

10-Zoll-Modell mit Intel-Atom-Prozessor ... Compaq Mini 110c: Netbook von Hewlett-Packard ...

349 Euro verlangt die Firma Hewlett-Packard (HP) für ihr neues Netbook „Compaq Mini 110c“. Zu diesem Preis erhalten Sie ein 10,1-Zoll-Modell mit netbooktypischer Ausstattung.

Netbook HP Compaq Mini 110c

Netbook HP Compaq Mini 110c

Das Netbook ist mit einem „Atom“-Prozessor von Intel (1,6 Gigahertz Taktfrequenz), einem Gigabyte Arbeitsspeicher sowie einer 160-Gigabyte-Festplatte ausgestattet. Ein Sechs-Zellen-Akku soll eine lange Laufzeit garantieren, bevor das Mini-Notebook wieder an die Steckdose muss. Eingebaut sind außerdem WLAN, eine Internetkamera sowie drei USB-Buchsen und ein Speicherkartenleser. Der Bildschirm bietet eine Auflösung von 1024x576 Pixel und ist hintergrundbeleuchtet.Lieferbar ist das Netbook Compaq Mini 110c von HP ab Juni 2009. (rs)

Posted via web from Superglide's Personal Blog ...

Das ZDF fährt sein Angebot im Web drastisch zurück ...

Das ZDF wird in den kommenden Monaten sein Internetangebot drastisch reduzieren. Rund 80 Prozent der heute noch verfügbaren Inhalte sollen aus dem Netz genommen werden.

Darüber berichtet die Nachrichtenagentur epd. Der evangelische Pressedienst bezieht sich auf einen ihm vorliegenden internen Vermerk des Zweiten Deutschen Fernsehens. ZDF-Unternehmenssprecher Alexander Stock habe gegenüber epd entsprechende Planungen bestätigt.

So werde die ZDF-Mediathek, aus der Zuschauer Fernsehsendungen nach ihrer Erstausstrahlung abrufen können, verkleinert. Stock begründete dies mit dem 12. Rundfunkänderungsstaatsvertrag, der am 1. Juni in Kraft tritt und dem Online-Engagement öffentlich-rechtlicher Rundfunkanstalten engere Grenzen setzt.

Das ZDF wolle von sich aus zeigen, "dass es uns nicht darum geht, alles Mögliche im Netz vorzuhalten, nur weil es ohne Aufwand möglich ist", sagte Stock der epd.

Laut ZDF-Vermerk werde das Angebot auf heute.de um 28 000 Text-Dokumente verkleinert. Aus dem Angebot von zdf.de sollen 46 800 Dokumente verschwinden. Das Portal sport.zdf.de werde um 18 700 Text-Dokumente verschlankt.

Quelle:

http://www.digitalfernsehen.de

Posted via web from Superglide's Personal Blog ...

Lotse mit Tourenkarten für Biker ... Garmin Zumo 660: Navi mit speziellen Motorrad-Funktionen ...

Garmin bietet ab sofort das Navigationsgerät „Zumo 660“ an. Für 599 Euro erhalten Sie ein speziell für Biker konzipiertes System, das unter anderem mit den 800 schönsten europäischen Motorradtouren aufwartet.

Motorrad-Navi Garmin Zumo 660

Motorrad-Navi Garmin Zumo 660

Die Touren, die auf der microSD-Karte zur Verfügung stehen, rufen Sie über einen Extra-Menüpunkt auf. Die Routen führen durch Österreich, Belgien, Tschechien, Deutschland, Dänemark, Spanien, Frankreich, Finnland, Liechtenstein, Großbritannien, Italien, Irland, Luxemburg, Norwegen, Niederlande, Portugal, Polen, Schweden, Slowenien und die Schweiz. Sie planen eigene Touren am heimischen PC und übertragen sie auf das Navi.

Das Zumo ist mit einem 4,3-Zoll-Display ausgerüstet, dessen Touch-Oberfläche auch auf Berührung durch Motorradhandschuhe reagiert. Garmin verspricht, dass das Display selbst bei starker Sonneneinstrahlung einwandfrei ablesbar ist. Das Gerät ist vibrationsgeschützt, wasserdicht und verträgt auch mal einen Spritzer Benzin.

Fahranweisungen überträgt das Navi in Stereo-Qualität per Bluetooth an einen hierfür geeigneten, in den Helm integrierten Kopfhörer. Ein Fahrspurassistent zeigt frühzeitig an, wo der Fahrer sein Motorrad für die nächste Abbiegung oder Ausfahrt einordnen muss. Verkehrszeichen, Kreuzungen sowie Richtungspfeile erscheinen in fotorealistischer Darstellung; in vielen Städteansichten erscheinen außerdem transparente 3D-Ansichten wichtiger Gebäude. (rs)

» Test: Die besten Navigationsgeräte
» Kaufberatung: Mobile Navis

Posted via web from Superglide's Personal Blog ...

Fotobearbeitung ... Software-Tipp: POS Free Photo Editor ...

Screenshot aus dem POS Free Photo Editor

POS Free Photo Editor

Das Gratis-Programm „POS Free Photo Editor“ peppt Ihre digitalen Schnappschüsse auf. Unter anderem stellen Sie Helligkeit, Kontrast, Farbton und Schärfe der Bilder ein. Über Schieberegler legen Sie jeweils die gewünschte Stärke der Veränderungen fest. Der POS Free Photo Editor zeigt Ihnen die Ergebnisse in einer Echtzeitvorschau. Die Software verarbeitet unter anderem die Formate JPG, GIF, PNG, TIFF, BMP, DIB, RLE, PCX.

» Download: POS Free Photo Editor herunterladen

Posted via web from Superglide's Personal Blog ...

Kein "tragbares Loch" ... der 5D-Datenspeicher ist entwickelt worden ...

Das Schöne am britischen Wissenschaftsjournalismus ist, dass er seinem Metier immer eine Prise Pop beimischt. So auch auf dem Cover der aktuellen Ausgabe von Nature: "Digital storage in five dimensions" steht darauf in großen Lettern. Fünf Dimensionen! Ist endlich das tragbare Loch erfunden worden, dachte ich kurz?

Natürlich fällt auch der Prototyp des in Nature vorgestellten Superdatenspeichers nicht aus dem bekannten Raumzeitkontinuum heraus. Bei den Dimensionen handelt es sich um die eines abstrakten Parameterraumes. Drei davon sind tatsächlich Raumrichtungen. Im Unterschied zu CDs und DVDs, auf denen Bits in einer Ebene dargestellt werden, wird auch die räumliche Tiefe ausgenutzt. Das ist noch nicht neu: Seit Jahren wird bereits an holografischen Datenspeichern gearbeitet, die das ganze dreidimensionale Volumen eines Polymerkörpers nutzen - bekannt wurde etwa die "Tesa-ROM".

Drei Forscher der Swinburne University of Technology (Australien) fügen noch zwei weitere Parameter zu, die in einem einzigen Verfahren genutzt werden können und keiner Dimension im üblichen Sinne entsprechen: die Wellenlänge des Laserlichts, mit dem die Informationen geschrieben werden, sowie dessen Polarisationsrichtung. Damit gelingt es ihnen, in ein und derselben Schicht mehrere Datenbestände parallel zu speichern, und das jeweils in mehreren übereinander liegenden Schichten.

Wie funktioniert das? Der Clou an dem Verfahren sind unzählige Nanostäbchen aus Gold in drei verschiedenen Abmessungen (37 x 19, 50 x 12 und 50 x 8 Nanometer), die zufällig in einem Polymer verteilt sind. Jede Stäbchenvariante spricht im Prototyp jeweils nur auf eine bestimmte Laser-Wellenlänge an: die kurze auf 710, die längliche auf 840 und die lange, dünne auf 900 Nanometer. Ultrakurze, energiereiche Laserpulse dieser Wellenlängen übertragen ihre Energie (über die sogenannte Oberflächenplasmonenresonanz) auf die entsprechenden Stäbchen, aber nur, wenn die Stäbchen parallel zur Polarisationsrichtung des Lichts liegen. In diesem Fall schmelzen die Stäbchen zu Klümpchen. Solche Stellen erscheinen dann später als dunkel, wenn ein – diesmal schwacher – Laserpuls derselben Wellenlänge und Polarisierung darauffällt. Alle anderen erscheinen hell. Dunkle und helle Flächen können so die Bitwerte "0" und "1" repräsentieren und von einem Sensor registriert werden.

Die Datendichte des Prototyps ist schon bei nur drei beschriebenen Schichten enorm: 1,1 Terabit pro Quadratzentimeter. Die 340-fache Datendichte einer herkömmlichen DVD. Die Schreibgeschwindigkeit ist ebenfalls gewaltig: 1 Gigabit pro Sekunde. Allerdings ist der "5D-Datenspeicher" nicht wiederbeschreibbar.

Interessant ist auch ein anderer Vergleich. Der vor einigen Jahren von IBM entwickelte Datenspeicher namens "Millipede", eine Art Nanolochkarte, erreicht eine Datendichte von 150 Gigabit (0,15 Terabit) pro Quadratzentimeter. Der Millipede ist das bislang einzige ausgereifte Konzept eines ganz neuen Nanodatenspeichers (IBM hat es aber bis heute nicht kommerzialisiert). Die Löcher, die jeweils ein Bit repräsentieren, haben einen Durchmesser von nur 15 Nanometern und sind jeweils 10 Nanometer voneinander entfernt. Die Datendichte wurde also durch eine außerordentliche Verkleinerung hinunter auf die Nanoskala erreicht – was ein ganz neues technisches Konzept erforderte (die Löcher werden mit den Spitzen winziger Hebel gestanzt, was eine ausgeklügelte Steuerung benötigt).

Dagegen muten die charakteristischen Größen des australischen "5D-Speichers" geradezu gewöhnlich an. Die Bitpunkte haben einen Durchmesser von 750 Nanometern - 75 mal größer als beim Millipede. Die Dicke einer Speicherschicht beträgt 1 Mikrometer, nanotechnisch gesehen grobschlächtig. Die Datendichte wird hier nicht durch Verkleinerung erreicht, sondern durch massive Parallelität. Und im Unterschied zum Millipede ist auch keine neue Technologie nötig. Die Forscher benutzten nur Technologien, die bereits heute zur Verfügung stehen. Nanoskalig sind nur die Goldstäbchen, und deren Positionierung muss nicht einmal präzise kontrolliert werden.

Gemessen daran ist der "5D-Speicher" also eine verblüffend "schlichte" und deshalb umso cleverere Anwendung der reichhaltigen Möglichkeiten von Nanotechnik.

Ob wir schon bald umfangreiche "5D"-Filmbibliotheken haben werden, die in einen Schuhkarton passen, ist dennoch fraglich. Die Entwicklung der (einfach dreidimensionalen) holografischen Datenspeicher ist viel weiter fortgeschritten. Tesa-ROM-Speicher etwa könnten im Prinzip schon kommerziell produziert werden. Dennoch gibt es bisher offenbar keinen Markt dafür.

Zwar ist die Datenexplosion der digitalen Welt gewaltig. Nach Angaben von Cisco wurden im vergangenen Jahr von Youtube-Servern monatlich 30.000 Terabyte abgerufen (noch 1998 schätzten Kognitionsforscher die Datenmenge des "Weltgeistes" auf 1340 Terabyte). Die Google-Server verarbeiteten laut Wired bereits vor knapp einem Jahr alle 72 Minuten 1000 Terabyte. Nach IBM-Schätzung wird sich der weltweite Datenbestand irgendwann im nächsten Jahr alle elf Stunden verdoppeln.

Doch der Löwenanteil dieser Daten zirkuliert, wird kurzzeitig gespeichert, weitergeleitet, gelöscht, erneut gespeichert und so weiter. Nicht wiederbeschreibbare Speicher dürften da in einigen Jahren ein Nischenprodukt sein. So könnte der 5D-Speicher am Ende ein konzeptioneller Meilenstein sein, aber kein bahnbrechender Entwicklungssprung. Der könnte vielmehr in der Erkenntnis liegen, dass wir uns irgendwann auf weniger und dafür wesentlichere Daten konzentrieren. Und für die Entsorgung des Datenmülls erfindet dann vielleicht doch noch irgendjemand ein tragbares Loch.


Das Paper zum "5D-Speicher" (ohne Abo nur Abstract zugänglich):
Peter Zijlstra et al., "Five-dimensional optical recording mediated by surface plasmons in gold nanorods", Nature, Vol. 459, 21. Mai 2009.

Quelle:

Niels Boeing

Posted via web from Superglide's Personal Blog ...

Neue Konkurrenz für Google? Microsoft-Suchmaschine: Aus „Kumo“ wird „Bing“ ...

Microsoft will seine neue Suchmaschine laut einem Medienbericht „Bing“ taufen und massiv in die Werbung für das Produkt investieren.

Microsoft-Suchmaschine Kumo

Die neue Microsoft-Suche (Codename Kumo) soll unter dem Namen Bing starten.

Der Softwarehersteller plane eine Kampagne in allen Mediengattungen und werde zwischen 80 und 100 Millionen Dollar ausgeben, berichtete das Fachmagazin „Advertising Age“ in seiner Online-Ausgabe. Die Agentur JWT übernehme die Gestaltung. Bislang war das Projekt unter dem Codenamen „Kumo“ bekannt. Microsoft kommentierte den Bericht nicht. Branchenkreise erwarten, dass das Unternehmen die Suchmaschine in den nächsten Tagen vorstellt.

Mit seiner Suchmaschine Live Search liegt Microsoft derzeit weit hinter Marktführer Google. Weltweit erreichte der Konzern 2008 laut Zahlen des Dienstleisters NetApplications einen Marktanteil von 4,8 Prozent, während Google auf 81 Prozent kam. „Advertising Age“ wertet die Kampagne als Attacke auf den Marktführer: „Google hat sicherlich noch nie so einem großen Werbeangriff gegenübergestanden.“ (dpa/rs)

Posted via web from Superglide's Personal Blog ...

Ergebnis vor offizieller Verkündung im Internet! Wahl des Bundespräsidenten: Wirbel um Twitter ...

Bei der Bundespräsidenten-Wahl am 23. Mai ging einiges schief. Ärger gibt es unter anderem wegen des Mikroblogging-Dienstes Twitter; dort war das Ergebnis vor der offiziellen Bekanntgabe zu lesen.

Bundespräsident Horst Köhler

Bundespräsident Horst Köhler: Die Wiederwahl lief nicht wie gewohnt ab.

Die „Twitter-Affäre“ beschäftigt nun das Präsidium des Deutschen Bundestags. Der Ältestenrat will sich auch mit der Frage befassen, wie es dazu kommen konnte, dass noch vor Bekanntgabe der Wiederwahl Blumensträuße verteilt wurden und ein Bläser-Quintett einmarschierte.

CSU-Landesgruppenchef Peter Ramsauer kritisierte die Vorab-Informationen: „Ich habe für solche Dinge keinerlei Verständnis, weil es letztlich auch irgendwo die Würde des Parlaments untergräbt.“ Ramsauer forderte, dass „das gefälligst in Zukunft unterbleibt“. Auch von den anderen Parteien war zuvor schon Kritik gekommen. Die CDU-Abgeordnete Julia Klöckner hatte den Erfolg Köhlers am Samstag knapp 15 Minuten vor der offiziellen Verkündung verbreitet. Sie war Mitglied der Zählkommission. Am Montag hatte sie angekündigt, auf das Amt als Schriftführerin im Parlament zu verzichten. Der SPD-Fraktionsvize Ulrich Kelber, der noch früher über Twitter Köhlers Wahl mit der exakten Stimmenzahl von 613 Stimmen verkündet hatte, verteidigte dagegen seine Botschaft. (dpa/rs)

Posted via web from Superglide's Personal Blog ...

Dienstag, 26. Mai 2009

Social Community Twitter: Vom Internet auf den Fernsehschirm ...

Der Kurznachrichtendienst Twitter plant eine interaktive TV-Show mit Prominenten. US-Medienberichten zufolge will Twitter seine Popularität nun offenbar im Fernsehen zu Geld machen.

www.twitter.com

Twitter: Bald zwitschert es auch im US-TV.

Gemeinsam mit den Produktionsfirmen Reveille Productions und Brillstein Entertainment („The Sopranos“) entwickelt der Online-Dienst eine interaktive TV-Show, deren Teilnehmer sich auf die Spur von Prominenten begeben sollen. Im Mittelpunkt steht dabei eine Art von Wettbewerb: „Wir haben eine fesselnde Möglichkeit gefunden, die Unmittelbarkeit von Twitter im Fernsehen zum Leben zu erwecken“, so Jon Liebman, Executive Producer des Projekts.

Dass Twitter auch im Fernsehen auf Stars und Sternchen setzt, ist nicht verwunderlich. Prominente haben einen wesentlichen Teil zu der Popularität der Seite beigetragen und profitieren mittlerweile auch selbst davon. Hollywood-Größen wie Demi Moore und Ashton Kutcher setzen Twitter ganz bewusst als persönliche Werbemaschine ein. Twitter bietet den Promis die Möglichkeit, in direkten Kontakt mit ihren Fans zu treten.

Einzelheiten zur Umsetzung der Show wurden bislang nicht bekannt. Twitter-Chef Biz Stone bestätigte aber die Entwicklung der Sendung. Allerdings verwies er auch darauf, dass es sich dabei um keine offizielle Twitter-Show handle. Neben dem Micro-Blogging-Dienst drängt mit Facebook eine weitere Community auf die Mattscheibe. In Hollywood arbeitet der Autor Aaron Sorkin („West Wing“) seit einigen Monaten an einem Drehbuch für einen Facebook-Kinofilm. (pte/gh)

Posted via web from Superglide's Personal Blog ...

Mobile Rechner für Gamer, Kinofreunde und Design-Fans ... Asus: Notebook-Parade ...

Asus bringt in diesem Sommer viele neue Notebooks auf den Markt.

Netbook Eee PC 1008HA Seashell

Mit dem „Eee PC 1008HA Seashell“ bringt Asus ein weiteres Netbook mit Zehn-Zoll-Bildschirm (Auflösung: 1024x600 Pixel) auf den Markt. Lieferbar ist das Mini-Notebook wahlweise in Schwarz oder Perlmutt. Der Prozessor stammt von Intel; der „Atom“ ist mit 1,66 Gigahertz getaktet. Ihm zur Seite stehen ein Gigabyte Arbeitsspeicher. Die Festplatte ist 160 Gigabyte groß. Ausgestattet ist der Eee PC mit WLAN-n, einer 1,3-Megapixel-Internetkamera, zwei USB-Buchsen, einem Speicherkartenleser sowie dem Betriebssystem „Windows XP Home“. Der 1,1 Kilogramm leichte Eee PC 1008HA Seashell ist ab sofort im Fachhandel für 399 Euro verfügbar.

Notebook Asus N90SV

Notebook Asus N90SV

Full-HD-Notebook Asus N90SV

Für Kino- und Spielefans empfiehlt Asus das brandneue Notebook „N90SV“. Ausgestattet ist der Bolide mit einem 18,4-Zoll-Display im 16:9-Format (Auflösung: 1920x1080 Pixel). Der „Core 2 Duo P8700“-Prozessor von Intel ist mit 2,53 Gigahertz getaktet. Für Speed sollen außerdem vier Gigabyte Arbeitsspeicher sowie die Grafikkarte „Geforce GT 130M“ von Nvidia mit einem Gigabyte eigenem Speicher sorgen. Als Datenspeicher stehen zwei jeweils 320 Gigabyte große Festplatten zur Verfügung. Eingebaut sind ein DVD-Brenner, WLAN-n, Bluetooth, ein Speicherkartenleser, ein HDMI-Ausgang, eine 1,3-Megapixel-Kamera sowie ein Soundsystem von Altec Lansing. Ausreichend „Saft“ liefert ein Acht-Zellen-Akku. Das Asus N90SV ist für 1.549 Euro zu haben.

 

Notebook Asus UX50V

Notebook Asus UX50V

Notebook Asus UX50V

Wer auch beim Notebook auf elegantes Aussehen Wert legt, sollte sich das „UX50V“ von Asus anschauen: Das stromlinienförmige Gehäuse ist dem Flügel eines Schmetterlings nachempfunden. Auch die technischen Werte können sich sehen lassen. Das 15,6-Zoll-Display ist hintergrundbeleuchtet und bietet eine Auflösung von 1366x768 Pixel. Der Intel-Prozessor „Core 2 Solo SU3500“ verfügt über eine Taktfrequenz von 1,4 Gigahertz. Eingebaut sind vier Gigayte Arbeitsspeicher, eine 500-Gigabyte-Festplatte, die Grafikkarte „Geforce G 105M“ von Nvidia mit 512 Megabyte eigenem Speicher sowie ein DVD-Brenner. Als Betriebssystem ist „Windows Vista Home Premium“ installiert. Natürlich bietet auch das Asus UX50V WLAN-n, besitzt einen Speicherkartenleser und drei USB- sowie eine HDMI-Schnittstelle. Darüber hinaus ist es mit Bluetooth ausgestattet. Zu haben ist das Asus UX50V zum Preis von 899 Euro.

Posted via web from Superglide's Personal Blog ...

WLAN, Bluetooth und großer Bildschirm ... Acer Aspire One 751: Netbook mit 11,6-Zoll-Display ...

Acer bringt mit dem „Aspire One 751“ ein neues Netbook heraus. Besonderheit: Das Gerät verfügt über einen 11,6-Zoll-Bildschirm; bislang war bei zehn Zoll Diagonale im Netbook-Bereich Schluss.

Netbook Acer Aspire One 751

Netbook Acer Aspire One 751

Das neue Netbook ist in vier Farben (Weiß, Dunkelblau, Rot, Schwarz) lieferbar. Ausgestattet ist es mit einem „Atom“-Prozessor von Intel mit 1,33 Gigahertz Taktfrequenz sowie einem Gigabyte Arbeitsspeicher. Ihre Daten nimmt eine 160 Gigabyte große Festplatte auf. Der Bildschirm misst wie erwähnt 11,6 Zoll und bietet eine Auflösung von 1366x768 Pixel. Er ist hintergrundbeleuchtet. Für Videotelefonie und -chats steht eine in das Gehäuse integrierte 0,3-Megapixel-Kamera zur Verfügung.

Ferner spendiert Acer dem 1,35 Kilogramm leichten Aspire One 751 einen Speicherkartenleser, WLAN (b/g-Standard), Bluetooth sowie drei USB-Buchsen. Eingebaut ist ein Sechs-Zellen-Akku, der im Dauerbetrieb bis zu 8,5 Stunden durchhalten soll. Als Betriebssystem ist „Windows XP Home“ installiert. Das Netbook Acer Aspire One 751 ist ab sofort zum Preis von 429 Euro im Handel verfügbar. (rs)

Posted via web from Superglide's Personal Blog ...

123 Millionen Euro für 700.000 Kunden ... United Internet kauft DSL-Geschäft von Freenet ...

Das monatelange Bieten um die DSL-Sparte von Freenet hat ein Ende: Der Internetdienstleister United Internet (UI) übernimmt die Breitband-Sparte des Büdelsdorfer Unternehmen.

Logo von Freenet

Wie beide Unternehmen mitteilten, bezahlt United Internet 123 Millionen Euro für etwa 700.000 Freenet-Kunden. Das Geschäft soll bis Ende 2009 über die Bühne gehen. Außerdem schließt Freenet mit United Internet eine Vertriebsvereinbarung, die zunächst bis 2014 laufen soll. Das Kartellamt muss der Übernahme noch zustimmen.

Für die Freenet-Kunden ändert sich nach den Worten des neuen Freenet-Vorstandschefs Christoph Vilanek nichts. In den kommenden fünf Jahren will United Internet rund 500.000 neue DSL-Kunden hinzugewinnen. Ein ambitioniertes Ziel: Auf dem DSL-Markt in Deutschland tobt ein erbitterter Preiskampf. Freenet hatte in den vergangenen Quartalen Kunden verloren. (dpa/rs)

Posted via web from Superglide's Personal Blog ...

Bei Aufgabe des Urheberrechtes im Internet droht der Verlust "kultureller Werte" ...

LFK-Präsident verweist auf fehlendes Unrechtsbewusstsein bei Raubkopien ...

Nach wie vor gilt das Internet bei vielen Nutzern als rechtsfreier Raum. Darum ist es für den Präsidenten der Landesanstalt für Kommunikation (LFK), Thomas Langheinrich, eine der dringendsten Herausforderungen in der digitalen Welt, das Rechtsbewusstsein zu sensibilisieren. „Ansonsten besteht die Gefahr, dass durch die unberechtigte und kommerzielle Weiterverwendung digitaler Inhalte sich die Gesellschaft mittelfristig um das bringt, was sie auszeichnet: Musik, Literatur und Presse“, warnte der LFK-Präsident. Die Verteidiger eines Open Access im Internet müssten sich mehr und mehr den drängenden Fragen der Autoren und Verleger stellen, die ihre Berufe und Geschäftsmodelle ernsthaft bedroht sehen.

Anlässlich einer Tagung in Kooperation mit der Alcatel-Lucent Stiftung für Kommunikationsforschung und dem Institut für Europäisches Medienrecht (EMR) zum Thema „Elektronische Medien zwischen Exklusivität und Grundversorgung“ forderte Langheinrich eine konsequente Durchsetzung des geltenden Urheberrechtes auch im Internet, um in Zukunft nicht auf kulturelle, journalistische und wissenschaftliche Leistungen verzichten zu müssen. „Dazu gehören Normen, die wirksame Verfolgung von Straftaten und die Durchsetzung von Schadensersatzansprüchen“. Während im Geschäftsleben geltende Rechtsgrundsätze akzeptiert seien, so der Medienhüter, herrsche im Netz eine ganz andere Mentalität: Offener Zugang, unbeschränkter Austausch von Daten, fehlender Datenschutz und Kostenfreiheit seien die kennzeichnenden Merkmale.

Langheinrich verwies aber auch darauf, dass es keinen Weg mehr in die alte Welt gäbe. „Die Gretchenfrage ist nun, ob sich die Kostenlos-Mentalität auch auf andere Medien und Verbreitungswege erstrecken wird. Es stellt sich die Frage, ob heute noch ein Geschäftsmodell funktionieren kann, das auf Werbeerlösen von gedruckten Werken, Abonnenteneinnahmen oder dem Verkauf von Büchern basiert. Wie lässt sich Qualitätsjournalismus künftig finanzieren?“, so Langheinrich.

Während bei Musikangeboten in den letzten Jahren neue Geschäftsmodelle über kostenpflichtige Abrufe generiert wurden, habe sich ein genereller Kopierschutz nicht durchsetzen können.

www.lfk.de

Quelle:

http://fkt.schiele-schoen.de

Posted via web from Superglide's Personal Blog ...

Schnellster Rechner derzeit in Deutschland und Europa ...

Das Forschungszentrum Jülich weiht heute offiziell in einem Festakt Europas schnellsten Supercomputer der Petaflop-Klasse ein. Teilnehmen werden dabei die Bundesministerin für Bildung und Forschung, Prof. Dr. Annette Schavan, und der Ministerpräsident des Landes Nordrhein-Westfalen, Dr. Jürgen Rüttgers. Das System mit dem Namen "Jugene", finanziert zu gleichen Teilen vom Bund und vom Land Nordrhein-Westfalen, wird vom Forschungzentrum Jülich im Rahmen des „Gauß Centre for Supercomputing“ (GCS) betrieben. Es leistet im Sinne der europäischen Forschungsförderung einen herausragenden Beitrag, um erstklassige Infrastrukturen für Spitzenforschung in Europa anzubieten.

Der Supercomputer erreicht eine Spitzenrechenleistung von bis zu 1 Petaflop/s (das heißt bis zu 1 Billiarde oder 10hoch15 Rechenoperationen pro Sekunde). Er ist damit so leistungsstark, dass er eine Million mal eine Milliarde Berechnungen pro Sekunde machen kann. Mit anderen Worten: Eine Milliarde Menschen müssten jeweils pro Sekunde eine Million Berechnungen mit dem Taschenrechner durchführen, um annähernd gleich schnell zu sein. In der Rangliste der weltweit schnellsten Supercomputer würde der Rechner nach jetzigem Stand voraussichtlich einen Platz unter den fünf schnellsten Systemen weltweit einnehmen. Die Veröffentlichung der nächsten Top500-Supercomputerliste wird für Juni 2009 erwartet.

Der Rechner wird von internationalen und nationalen Forscherteams für herausgehobene Problemstellungen und Simulationen in den Wissenschaftsbereichen Physik, Chemie, Biologie, Astronomie, Materialwissenschaften und Umweltwissenschaften eingesetzt. So hilft der Computer beispielsweise dabei, die Schadstoffausbreitung in Boden und Grundwasser besser zu verstehen oder das Verhalten von Biomolekülen nachzuvollziehen.

Die Zusammenarbeit zwischen dem Forschungszentrum Jülich und IBM ist für Forschergruppen der verschiedensten Disziplinen nutzbringend. Die Simulation, die sich als dritte Säule der Wissenschaft neben Experiment und Theorie etabliert hat, wurde durch Supercomputing signifikant weiterentwickelt. Durch Simulationstechniken können Problemstellungen gelöst werden, die anderweitig aus technischen oder sonstigen Gründen nicht bearbeitet werden könnten.

Beispielsweise wurden die Arbeiten eines Forscherteams zur Quantenchromodynamik auf der Jülicher Maschine von der Zeitschrift Science zu den zehn wichtigsten Forschungsarbeiten weltweit im Jahr 2008 gezählt. Die Fähigkeit, durch Simulation neue Erkenntnisse zu gewinnen, hängt wesentlich von der nutzbaren Rechenleistung ab. Die Parallelität der Anwendungen und der Systeme bildet angesichts der technologischen Entwicklung eine zentrale Voraussetzung, um signifikante Steigerungen zu erzielen. Daher streben das Forschungszentrum Jülich und IBM an, Anwendungen und Systeme gemeinsam entsprechend zu optimieren.

Mit dem Blue Gene-System arbeitet das Forschungszentrum Jülich auch vor allem im Bereich der hochskalierbaren Anwendungen. Jülich kooperiert darüber hinaus als Pilotanwender mit IBM auch in der Rolle eines Architekten künftiger HPC-Lösungen zur Vorbereitung des künftigen Exaflop-Zeitalters (eine künftige Supercomputing-Klasse mit > 10 hoch 18 Berechnungen pro Sekunde). Damit findet ein echter Wissensrückfluss zur weiteren Entwicklung von Supercomputing statt.
www.ibm.com/deepcomputing
www.fz-juelich.de

Quelle:

http://fkt.schiele-schoen.de

Posted via web from Superglide's Personal Blog ...

"Frische Ionen-Brise" zur Kühlung im Rechner ...

Wer heutzutage einen Laptop mit einem leistungsstarken Prozessor hat, muss sich mit dem hässlichen Geräusch abfinden, das der Ventilator unter der Haube macht. Beim MacBook Pro etwa kann man gar den Eindruck bekommen, das Gerät hebe gleich ab, wenn die Prozessorkühlung richtig in Fahrt kommt. Die erfordert immer ausgeklügeltere Konstruktionen, je flacher Laptops werden. Kein Wunder, dass Ingenieure seit längerem auf der Suche nach Alternativen zum Ventilator sind.

Eine davon ist die so genannte Ionen-Kühlung: Dabei sollen Ionen die Luftmoleküle um den Prozessor herum in Bewegung bringen und so eine kühlende Brise entfachen. Wie das im Prinzip funktioniert, weiß man seit längerem. Die US-Firma Tessera hat nun, gemeinsam mit Forschern der Universität von Washington, ein System entwickelt, dass in einen handelsüblichen Laptop integriert werden kann. Der in Tests erzielte Effekt kann sich sehen lassen: Die Ionen-Kühlung führt 30 Prozent mehr Wärme ab als ein Ventilator. Und das bei der Hälfte des bisherigen Stromverbrauchs, wie Tessera erklärt.

Die Idee zur Ionen-Kühlung wurde 2006 erstmals von Alexander Mamishev, Professor für Elektrotechnik an der Universität von Washington, vorgestellt und ist eigentlich ganz einfach: Legt man zwischen zwei Elektroden eine sehr hohe Spannung an, werden Luftmoleküle ionisiert. Aufgrund ihrer Ladung bewegen sie sich nun in dem elektrischen Feld und stoßen dabei andere Luftmoleküle an. Daraus entsteht ein Luftzug, der kräftig genug ist, um Wärme von einer erhitzten Stelle abzutransportieren.

Tessera lizenzierte die Technologie dann im vergangenen Jahr und machte sie Laptop-tauglich. Dabei ist sie nicht nur effizient, sondern auch geräuschlos, „denn es gibt keine beweglichen Teile“, wie Mamishev erläutert. Der jetzt erreichte Stand der Technik sei ein „wichtiger Meilenstein“.

„Am Anfang ging es erst einmal um das Grundprinzip“, sagt Ken Honer, Forschungsleiter von Tessera. „Das haben wir inzwischen optimiert und an kleine Baugrößen angepasst.“ Laut Honer lasse sich das System auch in Spielkonsolen, Beamern und Servern einsetzen. „Was Tessera hier entwickelt hat, zeigt klar das Potenzial der Ionen-Kühlung“, lobt Suresh Garimella, Elektroingenieur an der Purdue University und Leiter des dortigen Forschungszentrums für Kühltechnologien.

Das neue Kühlsystem wird an einer Lüftungsöffnung im Innern des Laptops platziert. Dort kommen die Leitungen eines Kühlkreislaufs an, in dem die Hitze am Prozessor durch eine verdampfende Flüssigkeit abgeführt wird. Der Luftzug, den die Ionen-Kühlung entfacht, nimmt die Wärme des Dampfes auf, der sich daraufhin wieder für den nächsten Zyklus verflüssigt.

Ein Knackpunkt für die Anwendung im Laptop war dabei, einen kompakten und zugleich leistungsstarken Spannungswandler zu finden. Denn aus den 12 Volt Betriebsspannung müssen 3000 Volt werden, damit zwischen den Elektroden eine Ionisierung einsetzt. Die Tessera-Ingenieure griffen dafür auf die Stromversorgung einer Kaltkathodenlampe – die bekannteste Variante ist die „Neonröhre“ – zurück. Es gelang ihnen, daraus einen nur drei Quadratzentimeter großen Spannungswandler zu konstruieren.

Tessera ist nicht die einzige Firma, die an einer Ionen-Kühlung für Elektronikgeräte arbeitet. Suresh Garimella hat mit seinem Team an der Purdue University ein ähnliches System entwickelt, das das kalifornische Start-up Ventiva nun zur Marktreife bringen will.

In der nächsten Laptop-Generation werden beide Technologien aber noch nicht zu finden sein. Vorher müssen nämlich weitere Problem gelöst werden. Eins davon: die Haltbarkeit der Elektroden. Laptops sind für einen Betrieb über 30.000 Stunden ausgelegt. In den ersten Tests korrodierten die verwendeten Elektrodenmaterialien jedoch ziemlich schnell. Inzwischen habe man bessere Werkstoffe gefunden, sagt Tessera-Forschungschef Ken Honer. Weil das Patent noch nicht erteilt ist, will er aber keine Details nennen.

Eine andere Schwierigkeit ist der unvermeidliche Staub, der sich auch im Innern eines Laptops sammelt. Tessera arbeite daran, die Ionen-Kühlung „so staubunempfindlich wie einen Ventilator“ machen, verspricht Honer. Das könne man zum Beispiel mit einem vorgeschalteten Filter erreichen.

Laut Craig Mitchell, Vize-Präsident der Abteilung für Interconnects, Komponenten und Materialien bei Tessera, will das Unternehmen bereits „im nächsten Jahr weit genug für eine Kommerzialisierung“ des Systems sein. So weit wie Mitchell will sein Kollege Ken Honer nicht vorpreschen: „Die Technologie ist noch am Anfang der Entwicklungskurve.“

Quelle:

Kate Greene

Posted via web from Superglide's Personal Blog ...