Prof. Dr. Jürgen Kleffe Freie Universität Berlin
The human genome is as good as ready and understanding its message is the next important step to achieve those medical advances newspapers speculate about each day. The possibly simplest question to begin with is; where are the genes? There are three major sources of gene annotation. The experimental approach, which is expensive, the model based gene prediction, which is inaccurate, and sequence matching with ESTs, mRNAs, and protein sequences of other organisms, which is also error prone. Hence, the current state of the art is not satisfactory. On average every second published gene annotation is not entirely correct. To tell a good news, about 90% of the multi exon gene annotations are not entirely wrong. There are many problems with short single exon genes. This situation may not improve soon since we know far too little about the precise working of gene regulation, transcription, splicing, and translation inside the cell. Even though the 3-D structure of the ribosome is available, we know almost nothing about how it determines the start of translation. This makes it necessary to carefully review each gene annotation before it can be used in research projects. Do the latest sequence data provide new clues for a more precise location of the gene? Are there alternative gene predictions? How can we combine such information in order to find the currently most likely solution? Constrained gene prediction is a tool to answer such questions. We describe new implementations of the GeneGenerator program made to combine many different outputs of gene finder programs in to a single and hopefully improved consensus solution that also accommodates results from sequence matching with new ESTs, mRNAs or cDNAs as well as biological facts known about the gene of investigation. (Reference: Kleffe et al. (1998) Bioinformatics 14, 232-243)
Randomisierte Suchheuristiken, darunter insbesondere evolutionäre Algorithmen, haben sich in vielen Anwendungen als Alternative zu problemspezifischen Algorithmen bewährt. Allerdings sind über die Möglichkeiten evolutionärer Algorithmen übertriebene und sogar falsche Aussagen im Umlauf. In diesem Vortrag werden zunächst Szenarien für den sinnvollen Einsatz evolutionärer Algorithmen diskutiert und danach wird exemplarisch gezeigt, wie eine Theorie evolutionärer Algorithmen entwickelt werden kann. Dazu wird das Verhalten verschiedener Varianten evolutionärer Algorithmen auf ausgewählten Funktionen analysiert und das erste Beispiel gezeigt, für das der Crossover-Operator die erwartete Optimierungszeit beweisbar von exponentiell auf polynomiell senkt.
Es hat vieler hervorragender Wissenschaftler, Ingenieure und Manager weltweit bedurft, um dem Computer zu der heutigen Verbreitung zu verhelfen. Charles Babbage (1792-1871) formulierte die ersten Grundideen von programmgesteuerten Rechenmaschinen. Konrad Zuse (1910-1995) wird heute fast einhellig auf der ganzen Welt als Schöpfer des ersten programmgesteuerten und frei programmierbaren Rechners in binärer Schalttechnik und binärer Gleitpunktrechnung, der wirklich funktionierte, anerkannt. Diese Maschine - Z3 genannt - vollendete er 1941 in seiner kleinen Werkstatt zu Berlin-Kreuzberg. Konrad Zuse schuf auch - was weit weniger bekannt ist - mit dem Plankalkül (1941-1945) die erste höhere Programmiersprache der Welt.
Der Vortrag beschäftigt sich mit Informationsverarbeitung in Superorganismen. Ziel ist die Ableitung von Prinzipien und Architekturen, die von höheren Lebenswesen über Roboter und Insektenstaaten sowie Tierschwärme bis hin zu Unternehmen oder auch die ganze Menschheit gewisse generelle Phänomene intelligenter Informationsverarbeitung beschreiben. Ein wichtiger Aspekt betrifft dabei unterschiedliche Ebenen der Repräsentation von Wissen und Information, wobei von geometrischen Beschreibungen über neuronale Netze und Regelsysteme bis hin zu mathematischen Modellen ein breites Spektrum betrachtet wird, inkl. der Übergänge zwischen den verschiedenen Ebenen. Ferner werden in diesem Kontext dann auch Themen wie Lernen, Kreativität / Innovation und der Umgang mit knappen Ressourcen diskutiert. Der letzte Punkt hat insbesondere Beziehungen zur Thematik des Bewusstseins in biologischen Systemen und der Funktion von Hierarchien in menschlichen Organisationen. Neben diesen allgemeinen Überlegungen geht der Vortrag insbesondere immer wieder auf den Bereich der Robotik und im besonderen der Service-Robotik ein, wo alle oben genannten Themen zunehmend eine Rolle spielen, bis hin zur Frage der Emotionalität von technischen Haustieren bzw. zu Avataren.
Zur effizienten Verarbeitung von Flächen spielen Dreiecksnetze innerhalb der Computergraphik und ihren Anwendungen nach wie vor eine zentrale Rolle. Hauptnachteil hierbei ist die große Zahl von Dreiecken, die zur Darstellung qualitativ hochwertiger Modelle erforderlich ist. Mit steigenden Anforderungen an geometrische Modelle und der ständig verbesserten Meßgenauigkeit von radiologischen Meßgeräten (CT, MRA) nimmt auch die typische Datenmenge für qualitativ hochwertige Modelle explosionsartig zu.
Unter e-business verstehen wir die Umsetzung von Geschäftsabläufen mit Hilfe von Internet-Technologien. Branchenspezifisch werden unterschiedliche Resultate erzielt, zum einen weil die Art des Geschäftes und die Möglichkeiten seiner Virtualisierung wichtige Parameter sind, zum anderen weil typischerweise die Umstellung auf IT-basierende Geschäftsabwicklung weitere gravierende Folgen für ein Unternehmen, wenn nicht gar die gesamt Branche hat. Der Vortrag untersucht ausgehend von einer Darstellung der erwarteten technischen Weiterentwicklung die Auswirkung von Informationstechnologie auf die Geschäftsabwicklung. Als Beispiel wird hauptsächlich der Bereich der Finanzdienstleistungen, insbesondere die Versicherungswirtschaft dienen. In diesem Bereich werden ausgewählte Projekte vorgestellt und positioniert, welche in Zusammenarbeit von technischer Forschung (IBM Research Division) und Geschäft (IBM Kunden) durchgeführt wurden. Ziel solcher Projekte ist die Abklärung, inwieweit Informationstechnik einen Geschäftbereich unterstützen kann oder auf eine neue Grundlage stellt.
Heute ist e-business ein eigenständiges Forschungsthema am Forschungslabor der IBM in Rüschlikon (http://www.zurich.ibm.com/csc/ebizz/index.html). Die Arbeiten konzentrieren sich auf die Themen elektronische Märkte, Virtuelle Firma und Preisgestaltung.
Als Beispiel für den strukturellen Ansatz beschreiben wir das Dialogsystem EVAR, durch das telefonisch Auskünfte über Zugverbindungen eingeholt werden können. Eine Auswertung von über 1000 Dialogen ergab u.a., daß über 83% der nicht erfolgreichen Dialoge wegen einer fehlenden oder unzureichenden Integration der Benutzer-Äußerungen in den jeweiligen Diskurskontext scheiterten.
Aufgrund solcher Erfahrungen plädieren wir für eine neue Methode zur Verarbeitung von Sprachdialogen, einen plan-basierten Ansatz, der auf die Entwicklung eines flexiblen und konfigurierbaren Software-Werkzeugs für rationale Dialoge zielt. Bestimmend für unser Vorgehen ist eine pragmatische Sichtweise, bei der Sprechakte und Intentionen im Zentrum stehen. Aus theoretischer Perspektive betrachtet, schlagen wir vor, eine partielle Logik zur Dialoginterpretation einzusetzen, die eine direkte Repräsentation von Dialogkontexten erlaubt. Dem Primat der Pragmatik entsprechend steht für den Dialogmanager die Erkennung der Dialogintention am Anfang; davon ausgehend formulieren wir Grundannahmen über rationale Dialoge und über das kooperative Sprachhandeln ihrer Teilnehmer.
Die linguistische Verarbeitung beginnt mit einem Chunk-Parser für Worthypothesengraphen, die vom Erkenner erzeugt werden. Er generiert semantische Repräsentationen auf der Basis der Diskursrepräsentationstheorie (Lambda-DRT). Ein entscheidender Schritt bei der Konstruktion dieser semantischen Repräsentationen ist die Verankerung im Kontext ("grounding"). Die Kohärenz zwischen Äußerungen im Dialog ist primär semantisch definiert. Die partielle Logik dient dazu, diesen Kohärenzbegriff zu konkretisieren und um zu erklären, wie mithilfe der Kohärenzrelation eine Segmentierung des Dialogs vorgenommen werden kann.
Das Dialogmanager-Werkzeug wird im wesentlichen durch eine - in Beschreibungslogik formulierte - Beschreibung der Anwendungsdomäne parametrisiert, wodurch sich ein für diesen Anwendungsbereich spezifisch konfigurierter Dialogmanager ergibt. Dieser Dialogmanager interpretiert Äußerungen aus diesem Anwendungsbereich und interagiert mit einem oder mehreren anwendungsspezifischen Problemlösungskomponenten.
Research in QIS can bring not only radically new and more powerful tools to make computation faster and communication more efficient and more secure, but it has potentials to bring also new insights into the foundational phenomena of Nature.
Quantum computing might one day overcome many of the limits facing conventional computation and communication. The advantage of quantum computers arises from the way a new fundamental unit of information, quantum bit, called a qubit, is used and from quantum superposition, parallelism and especially, puzzling quantum entanglement with non-locality implications.
Recent discoveries in quantum information processing and communication (QIPC) have brought a variety of new, deep, important and exciting challenges that need to be faced by physics, informatics and mathematics.
The first aim of the talk is to present and analyse these challenges.
QIS research keeps discovering puzzling and mysterious quantum phenomena and studying laws and limitations of powerful quantum resources for computation and communication. This is expected to have profound effect on science in general and on QIPC in particular.
The second aim of the talk is to present and analyse these mysterious phenomena
and powerful resources.
Startseite der Technischen Fakultät