|
Leider konnte ich noch nicht alle Dokumente aufarbeiten, aber ich werde nach und nach den Rest hinzufügen. Oli (20.12.2002)
|
Diplomarbeit (140 Seiten), Jahr 2000, Prof. Dr. h.c. Dr.-Ing. J. L. Encarnação
Fraunhofer Anwendungszentrum Computergraphik in Chemie und Pharmazie (AGC)
,
Graphisch Interaktive Systeme, TU Darmstadt
|
Zusammenfassung:
In der Entwicklung von großen Softwaresystemen mit wachsender
Komplexität, ist es wichtig, das Gesamtsystem in kleine, überschaubare Teile
zu zerlegen. Gleichzeitig kann die Wiederverwendung von Komponenten die
Produktivität erhöhen und Entwicklungsdauer senken. Auch im Bereich der
Graphischen Datenverarbeitung ist eine Bibliothek von Komponenten nützlich,
die immer wieder eingesetzt werden können. So können virtuelle
Umgebungen möglichst einfach zusammengestellt werden. Aus einfachen
Komponenten können durch Verbindung komplexe Welten erstellt werden.
Gegenstand dieser Arbeit ist die Konzeption und Realisierung der Integration
realer Kommunikationsendgeräte in virtuelle Umgebungen. Mit virtuellen
Umgebungen interagiert der Benutzer meist nur durch Eingabegeräte wie
Keyboard, Datenhandschuh oder Maus. In wenigen Fällen werden akustische
Signale als Input und Stimulanz für die virtuelle Welt genutzt. In dieser Arbeit
werden Ansätze vorgestellt, wie reale Kommunikationsendgeräte als
zusätzliche Eingabe- und Ausgabegeräte in eine Trainingsanwendung wie
ETOILE (Environment for Team, Organisational and Individual Learning in
Emergencies) eingebunden werden können. Anhand eines Telefongerätes
werden komponentenbasierte Konzepte erarbeitet und prototypisch
umgesetzt. Die Prototypen dieser Arbeit bauen auf den im Fraunhofer Institut
für Graphische Datenverarbeitung entwickelten Java3D-Beans auf. Die
Kommunikation mit der Telefonie-Hardware erfolgt über ein JTAPI/CAPI-
Binding.
Durch die Einbindung handelsüblicher Kommunikationsendgeräte in eine
virtuelle Umgebung entsteht eine zweiseitige Kommunikation zwischen der
realen und virtuellen Welt und eine akustische Verschmelzung dieser beiden.
Der Umgang mit dem realen Gegenstand als Metapher für das Pendant in der
virtuellen Welt fällt dem Benutzer leichter als ein neu-entwickeltes
Eingabegerät. Ausgehend von der Einbindung von
Kommunikationsendgeräten wird des weiteren die Integration anderer realer
Gegenstände in eine virtuelle Umgebung diskutiert. Eine Weiterentwicklung
dieses Konzeptes könnte zu einem höheren Grad der Immersion führen,
wenn über das normale Bürotelefon mit einem Software-Agenten in der
virtuellen Umgebung tatsächlich telefoniert werden kann. Diese Arbeit liefert
vor allem technische Überlegungen auf dem Weg zu einer neuen Mensch-
Maschine-Interaktion.
Download: Diplomarbeit als pdf (3619kB),
Präsentation in PowerPoint (2,8MB),
Aufgabenstellungs als pdf (15kB)
|
|
Studienarbeit (96 Seiten), Jahr 2000, Prof. Dr. Dr. O. Betsch
Institut für Betriebswirtschaftslehre, Fachgebiet Finanzierung und Bankbetriebslehre, TU Darmstadt
|
Zusammenfassung:
Arbitragegeschäfte garantieren durch das gleichzeitige Agieren auf mindestens zwei
verschiedenen Märkten und das Ausnutzen von Preisunterschieden einen risikofreien Gewinn.
Diese Möglichkeiten sind meist nur kurzlebig, da sie in effizienten Märkten schnell
aufgedeckt werden und das Ausnutzen der Arbitragemöglichkeiten den Markt in die entsprechende
Richtung bewegt und so den Unterschied zwischen den Märkten verschwinden läßt.
Aber selbst auf nahezu vollkommenen Märkten existieren immer wieder Arbitragemöglichkeiten.
Mit Hilfe von Computerprogrammen werden heutzutage selbst kleinste Lücken erkannt, ausgenutzt
und so beseitigt.
In dieser Arbeit soll untersucht werden, inwieweit ein Computerprogramm Arbitragemöglichkeiten
zwischen DAX, Future-DAX und DAX-Optionen aufdecken kann, bzw. ob solche überhaupt noch
vorhanden sind. Das Programm führt automatisch Vergleiche zwischen dem Fair Value und dem
aktuellen Kurs durch und meldet dem Benutzer welche Derivate oder Aktien er kaufen und verkaufen
soll. Durch die Verbreitung des Internets stehen alle relevanten Daten nicht nur Banken und
Maklern zur Verfügung, sondern sind für jeden zugänglich. Mit der Implementierung dieses
Programms soll untersucht werden, inwieweit Arbitragegeschäfte über das Internet für jedermann
möglich sind.
Im theoretischen Teil der Grundlagen werden die verschiedenen Arbitragemöglichkeiten beleuchtet.
Im technischen Teil der Grundlagen werden dem fachlich-versierten Leser wichtige Informationen
gegeben, die zum Verständnis des Entwurfs- und Implementierungskapitels notwendig sind.
Der größte Teil der Arbeit beschäftigt sich mit dem Entwurf und der technischen Umsetzung
eines solchen Programms. In einem abschließenden Teil werden die Ergebnisse präsentiert und
bewertet.
Möglicherweise existieren in liquiden Märkten wie den Index- und Index-Derivat-Märkten nur
noch sehr geringe Arbitragemöglichkeiten, so daß eine kommerzielle Nutzung äußerst unwahrscheinlich
ist. Allerdings wird die Effizienz der Märkte durch das von mir erstellte Programm für alle
Marktteilnehmer, also auch Privat- und Kleinanleger, sichtbar.
Download: Studienarbeit als doc (467kB)
|
|
Praktikum, Sommersemester 2000, Prof. Dr. Petzold
Institut für Betriebswirtschaftslehre, Fachgebiet Betriebliche Kommunikationssysteme, TU Darmstadt
|
Zusammenfassung:
Genetische Algorithmen sind eine Teilklasse der Evolutionären Algorithmen.
Evolutionäre Algorithmen sind populationsbasierte adaptive Suchverfahren
zur Lösung kombinatorischer Optimierungsprobleme, wie etwa dem TSP. Sie stellen natur-adaptive
Verfahren dar, die mathematisch-algorithmisch die natürlichen Vorgäange der Evolution
und hier insbesondere das darwinistische Grundprinzip des �survival of the fittest�
modellieren. Dabei wird die Entwicklung einer oder mehrerer Population von Individuen
(Gene) über mehrere Generationen betrachtet.
Die einzelnen Individuen der betrachteten Population repräsentieren dabei die Lösungen
des Suchraums. Jedem Individuum ist dabei ein �fitness value� zugeordnet, der dem
Zielfunktionswert der entsprechenden korrespondierenden Lösung entspricht. Die drei
Grundoperatoren, die auf eine Population angewendet werden sind Selektion, Mutation
und Rekombination.
Die Selektion wählt aus der Population einer Generation möglichst �fitte� Individuen
für die weitere Betrachtung in der nächsten Generation und die Anwendung der Operatoren
Mutation und Rekombination aus. Die Mutation ist ein unärer randomisierter
Operator, der auf einzelne durch die Selektion ausgewählte Individuen angewandt
wird. Der Operator Rekombination wird auf jeweils zwei Individuen angewandt und
�kombiniert� das genetische Material beider Eltern oder parents genannter Individuen.
Dazu wird eine spezifische Funktion crossover verwendet, die eine genaue Vorschrift
der Rekombination darstellt. Die aus dem crossover von zwei Eltern enststandenen Individuen
werden auch als Kinder oder offsprings bezeichnet.
Genetische Algorithmen sind heute eine anerkannte Optimierungsmethode. Insbesondere
bei der Anwendung auf das TSP wurden gute bis sehr gute Ergebnisse erzielt, die
bei weitem besser als etwa die Anwendung von Tabu Search sind.
Um eine bessere Laufzeit zu erreichen wurde im Laufzeit ein frei-skalierbares, verteiltes
System implementiert.
Download: Fachentwurf als pdf (371kB),
Pflichtenheft als pdf (437kB),
Qualitätssicherung als pdf (37kB),
Konfigurationsmanagement als pdf (19kB)
|
|
|
|
Seminar, Sommersemester 1998, Prof. Dr. W. Domschke
Institut für Betriebswirtschaftslehre, Fachgebiet Operations Research, TU Darmstadt
|
Zusammenfassung:
Eines der wichtigsten praxisrelevanten Gebiete des Operations Research ist die
Netzplantechnik. Große Unternehmen müssen oft über mehrere Monate eine Planung ihrer
Aktivitäten vornehmen. Dabei werden große Projekte analysiert und in Teilprojekte zerlegt.
Je nach Komplexität des Problems werden dann wiederum jene Teilprojekte in noch kleinere
Jobs aufgegliedert.
Jedem Job wird eine ungefähre Dauer zugeordnet. Desweiteren müssen Verflechtungen
zwischen Teilprojekten berücksichtigt werden. In den meisten Fällen spielt auch die
Personalplanung eine Rolle. In der Analysephase muß ebenfalls geplant werden, welche
Arbeitskräfte und in welchem Maße diese den Jobs zugeteilt werden.
Das führt zu detaillierten Plannetzwerken, in denen jedem Job Dauer, Ressourcen und
Vorgänger- und Nachfolgerbeziehungen zugeordnet werden.
Das Problem benötigt mit zunehmender Komplexität immer mehr Rechenzeit und
optimale Lösungen benötigen oft mehrere Wochen. Daher gibt es verschiedene
heuristische Regeln, nach denen man vorgehen kann, die mehr oder weniger gute
Ergebnisse liefern.
In dieser Arbeit werden verschiedene Regelverfahren untersucht.
Download: Seminararbeit als doc (ohne Formeln) (200kB),
|
|
Seminar, Wintersemester 1998/1999, Betreuerin Marie-Luise Moschgath
IT Transfer Office, TU Darmstadt
|
Zusammenfassung:
In dieser Seminararbeit soll ein Überblick über die Entwicklung in der internationalen
Datenschutzgesetzgebung geben werden. Dabei soll zunächst erörtert werden, welche Unterschiede
es in den verschiedenen Staaten gibt. Ferner werden kurz die verschiedenen Datenschutzmodelle
angesprochen. Aus den Unterschieden ergeben sich zwangsläufig Probleme, die im ersten Kapitel
genauer beleuchtet werden.
Nach der Vorstellung der Problematik wird im zweiten Kapitel darauf eingegangen, mit welchen
internationalen Richtlinien man eine Angleichung der nationalen Gesetzgebung und damit eine
Beseitigung der Probleme erreichen wollte.
Dabei gehen wir neben den Richtlinien auch auf die Institutionen ein, die diese erlassen haben.
Grundlegend für den internationalen Datenschutz waren die Richtlinien der OECD im Jahre 1980.
Schon sehr früh beschäftigte sich diese Organisation in Symposien mit der Problematik.
Interessant war vor allem das Bestreben der USA schnell geschriebenes Gesetz zu schaffen.
Nachdem allerdings amerikanische Datenverarbeiter eine weltweite Vormachtstellung erarbeitet
hatten, lies der Druck der amerikanischen Regierung in diesem Bereich massiv nach.
In Europa wurde zum ersten Mal 1981 ein Übereinkommen im Europarat getroffen. Diese beiden
Richtlinien waren zunächst nur sehr pauschal gehalten, doch alle folgenden Gesetze und
Richtlinien beruhen auf den Ideen dieser beiden Schriften.
Weltweit konnte man sich schließlich 1990 bei den Vereinten Nationen (UNO) auf Richtlinien
einigen. Auch diese sollen genauer beleuchtet werden. 1995 wurden die umfangreichsten
Richtlinien vom Europäischen Parlament verabschiedet. Es handelt sich um sehr detaillierte
Richtlinien, wobei sicherlich erste Erfahrungen mit den vorangegangenen Schriften in dieses
Papier eingeflossen sind.
Nach der Vorstellung dieser grundlegenden Errungenschaften, befaßt sich diese Arbeit
kurz damit, inwieweit die Richtlinien Einfluß auf das Bundesdeutsche Datenschutzgesetz hatten.
Zur Zeit findet eine heftige Diskussion über Kryptographie statt. Auch hierzu gibt es erste
internationale Richtlinien der OECD aus dem Jahr 1997. Diese sollen vorgestellt und
erörtert werden. Aus aktuellem Anlaß werden in diesem Zusammenhang auch die
EU-Telekommunikations-Datenschutzrichtlinien vorgestellt werden. Sie wurden am 15.12.1996
verfaßt, aber erst am Anfang dieses Jahres erlassen.
Im Fazit soll ein Ausblick auf immer noch bestehende Probleme, aber auch auf das bisher
Erreichte geben werden.
Download: Ausarbeitung als doc (104kB)
|
|
Seminar, Sommersemester 1998, Prof. Dr. A. Podlech
Fachbereich Rechts- und Wirtschaftswissenschaften, Fachgebiet Öffentliches Recht, TU Darmstadt
|
Zusammenfassung:
Die OECD ist eine Organisation für wirtschaftliche Zusammenarbeit und Entwicklung.
Sie sieht es als Ihre Hauptaufgabe an, die Zusammenarbeit und Entwicklung ihrer
Mitgliedstaaten zu fördern. Zuerst soll etwas näher auf die Enststehung, die Ziele und die
Aktivitäten der OECD eingegangen werden.
Gerade die Zusammenarbeit der Mitgliedstaaten führt beim Datenaustausch aber auch zu
Problemen, zum Beispiel bei der Umsetzung des Datenschutzes. Dies soll anhand einiger
Beispiele europäischer Datenschutzgesetze näher erläutert werden, wobei auch der
internationale Datenschutz skizziert werden soll.
Um die entstandenen Probleme durch den internationalen Datenaustausch in den Griff
zu bekommen, versuchte die OECD durch ihre Leitlinien den Mitgliedstaaten Lösungsansätze
zur Verfügung zu stellen. Die OECD war jedoch nicht die einzige Organisation, die sich
diesem Problem widmete, auch der Europarat und die UNO versuchten auf einen internationalen
Datenschutz hinzuarbeiten. Diese Ansätze sollen verglichen werden.
Schließlich soll auch untersucht werden, ob und wie die Leitlinien der OECD das
Bundesdatenschutzgesetz beeinflußt haben. Dabei sollen die 5 Abschnitte der Leitlinien
getrennt untersucht werden.
Als letztes soll noch auf Empfehlungen der OECD bezüglich Kryptographie-Verfahren eingegangen werden,
da Kryptographie eng mit dem Datenschutz verbunden ist.
Seminararbeit als html (76kB),
|
|
Übung, Wintersemester 1998/1999, Dr. Körner
Fraunhofer Institut für Graphische Datenverarbeitung
,
Graphisch Interaktive Systeme, TU Darmstadt
|
Zusammenfassung:
Eine Gruppe von 3 Personen ist nach einem Erdbeben in einem komplexen
U-Bahn Tunnelsystem eingeschlossen. Jede Person ist als eigenständige
Einheit zu modellieren. Jede Person hat einige grundlegende Verhaltensregeln
und soll die Fähigkeit haben, sich mit den anderen Personen
abzusprechen, um aus dem Tunnel zu entfliehen. Im Praktikum sollen die
Regeln implementiert und das Verhalten der Gruppe visuell beobachtbar
gemacht werden, wobei Java 3D (und evtl. das IBM Agent Building Environment)
zu verwenden ist.
Dieses Applet demonstriert das Verhalten der Agenten, ohne Java3D zu
benutzen.
Link: Alle Ressourcen zu der Übung
|
|
Praktikum, Wintersemester 1999/2000, Prof. Dr. h.c. Dr.-Ing. J. L. Encarnação
Fraunhofer Institut für Graphische Datenverarbeitung
|
Zusammenfassung:
Aufgabe des Praktikums war die Implementierung eines C-Programms mit dem man zwei
Wave-Files gleichzeitig unter dem Betriebssystem Microsoft Windows95/98/NT abspielen kann.
Das Betriebssystem kennt nur ein Audio-Device und beim Versuch des gleichzeitigen
Abspielens wird eine Fehlermeldung ausgelöst.
Unter Windows 3.1 existierte eine 16-bit-wave-API, die aber von Microsoft durch
Microsoft DirectSound, einem 32-bit Audio- Application Programming Interface (API),
abgelöst wurde.
Ausarbeitung als doc (89kB),
|
|
Übung, Sommersemester 1998, Dr. Lindner
Fraunhofer Institut für Graphische Datenverarbeitung
,
Graphisch Interaktive Systeme, TU Darmstadt
|
Zusammenfassung:
Hier geht es zu einigen kleinen Übungen. Der Klassiker ist Übung 6 mit der
Entenschiessanlage in VRML (Browser-Plugin benötigt)
Link: Bezier Applet (Ü2),
Bezier Applet++ (Ü3),
Interaktiver Raum mit VRML (Ü6)
|
|
Diplomprüfung Ablauforganisation, Wintersemester 1999/2000, Prof. Dr. W. Domschke
Institut für Betriebswirtschaftslehre, Fachgebiet Operations Research, TU Darmstadt
|
Zusammenfassung:
Hier findet man eine Übersicht über verschiedene Maschinenbelegungspläne.
Download: Übersicht als doc (24kB),
|
|
Seminararbeit (38 Seiten), Wintersemester 1999/2000, Prof. Dr. Dr. O. Betsch
Institut für Betriebswirtschaftslehre, Fachgebiet Finanzierung und Bankbetriebslehre, TU Darmstadt
|
Zusammenfassung:
Inhalt dieser Seminararbeit ist die Untersuchung des Auftretens von Banken auf dem
elektronischen Marktplatz. Es wird sich hierbei auf das Privatkundengeschäft beschränkt,
das Firmenkundengeschäft ist nicht Gegenstand dieser Arbeit.
Schwerpunkt ist neben der Vorstellung des Online-Angebotes der Banken die Herausarbeitung
der aktuellen und zukünftigen Strategien auf dem elektronischen Marktplatz.
Durch neue Technologien bieten sich auf der einen Seite den Banken eine Vielzahl neuer
Chancen, auf der anderen Seite müssen althergebrachte Strategien neu überdacht werden.
Das Internet beschleunigt die Entwicklung und revolutioniert Arbeitsprozesse. Mit
traditionellem Angebot können heute die bestehenden Marktanteile nicht mehr gehalten
werden. Der Kunde diktiert immer mehr das Angebot, den Kreditinstituten bleibt dadurch
wenig Auswahl. Zusätzliche Konkurrenz droht nicht nur aus dem Bereich der Kreditinstitute,
auch Finanzdienstleister und Unternehmen aus der IT-Branche drängen auf den Markt. Durch
das Internet spielt die Größe eines Unternehmens nicht mehr die dominierende Rolle. Das
World Wide Web ermöglicht auch kleineren und branchenfremden Anbietern, die neu im Markt
sind, eine schnelle und erfolgreiche Präsenz.
Um so wichtiger ist es heute, mit den richtigen Strategien für den elektronischen
Marktplatz den Unternehmenserfolg zu sichern. Neben den klassischen Strategien ergibt
sich durch neu Techniken eine Reihe vielversprechender neuer Strategien.
Download: Seminararbeit als doc (175kB)
|
|
Seminararbeit (31 Seiten), Wintersemester 1999/2000, Prof. Dr. Uwe H. Schneider
Lehrstuhl für Zivilrecht, deutsches und internationales Wirtschafts- und Arbeitsrecht, TU Darmstadt
|
Zusammenfassung:
Die Koordination und Organisation der Finanzierung gehört zu den primären Aufgaben der Unternehmensleitung.
Eine ausreichende Planung und Kontrolle ist der Grundbaustein für nachhaltigen Unternehmenserfolg.
Langfristig kann der Kapitalbedarf durch eine entsprechende Kapitalstruktur der Konzernunternehmen koordiniert
werden. Langfristige Investitionen können über mehrere Jahre hinweg geplant werden.
Im kurzfristigen Bereich kann es trotz der langfristigen Finanz- und Investitionsplanung zu
Liquitditätsüberschüssen in den einzelnen Tochtergesellschaften kommen, während in anderen ein
Liquiditätsbedarf herrscht. Um das Konzernkonzept erfolgreich umzusetzen, ist es also notwendig, den
Liquiditätsbedarf aller Konzernunternehmen zu kennen und entsprechend zu steuern. Dies ist die Aufgabe des
Cash Managements.
Das Cash Management kann neben der Aufrechterhaltung der Liquidität auch zur Erwirtschaftung zusätzlicher
Erträge beitragen. Damit hat sich das Cash Management zu einem wesentlichen Instrument der
Rentabilitätssteuerung entwickelt. Durch den weitgehenden Überblick über die Finanzlage im Konzern können
der Zinsertrag kurzfristig frei verfügbarer Liquiditätsüberschüsse optimiert und Kreditaufnahmen vermieden
werden.
In internationalen Konzernen können potentielle Währungsrisiken vermieden und bei erfolgreicher Umsetzung des
Konzepts können sogar die Chancen der Globalisierung genutzt werden. Das Cash Management kann außerdem zur
Steuerung inländischer und ausländischer Tochtergesellschaften eingesetzt werden.
Rechtlich ergeben sich dadurch gewisse Probleme: Während die langfristige Kapitalaufbringung für
Einzelgesellschaften und Konzerne im Aktiengesetz und GmbH-Gesetz geregelt ist, werden für die kurzfristige
Liquiditätserhaltung nur sehr wenige rechtliche Vorgaben gemacht. Für den Unternehmenserfolg ist allerdings das
Cash Management von zentraler Bedeutung.
Download: Seminararbeit als doc (173kB)
|
|
Seminararbeit (46 Seiten), Wintersemester 1998/1999, Prof. Dr. W. Henhapl
Fachgebiet Praktische Informatik, TU Darmstadt im Rahmen des fachübergreifenden
Sozialorientierte Gestaltung von Informations- und Kommunikationstechnologie (SoGik)-Seminars
|
Zusammenfassung:
Das Internet hat in den vergangenen Jahren eine unvergleichbare Wachstumsphase durchlaufen. Den sozialen
Auswirkungen dieser technologischen Entwicklung wurde jedoch sehr lange keine Beachtung geschenkt.
Ziel dieser Arbeit ist es, einen sozialen Aspekt - die Bildung der persönlichen Identität - genauer zu
beleuchten. Die Fragestellung lautet in diesem Zusammenhang: Wie unterscheidet sich die Identitätsbildung im
echten Leben von der im Internet?
Die Arbeit gliedert sich in drei primäre Abschnitte. Im Kapitel 2 soll zunächst ein Definitionsversuch
des Identitätsbegriffs unternommen werden. Hierbei werden historische und aktuelle Definitionen
verschiedener Philosophen, Soziologen und Psychologen dargestellt. Außerdem wird ein außergewöhnlicher Aspekt
der persönlichen Identität - die multiple Identität vorgestellt.
In den Kapiteln 3 bis 5 werden dann technische Möglichkeiten der Kommunikation im Internet diskutiert und in
Beziehung zu Identitätsbildung, wie sie in Kapitel 2 eingeführt wurde, gesetzt. Dabei konzentriert sich die
Darstellung auf "ältere" Kommunikationsformen wie eMail, Chat oder Multi-User-Dungeons, die inzwischen eine
relativ hohe Verbreitung erreicht haben. An diesen Technologien kann man die Folgen auf die Identitätsbildung
deshalb relativ leicht ablesen.
Die abschließenden Kapitel 6 bis 8 geben einen Ausblick auf neuere technische Entwicklungen wie virtuelle
Welten und Avatare. Hieran kann man unter Umständen die Richtung erkennen, wie das Internet in der Zukunft
unsere Identität beeinflussen wird, soweit wir es als Medium einsetzen. Allerdings liegen über diese Systeme
noch keine empirischen Untersuchungen vor, weshalb die Folgenabschätzung einen weitaus höheren spekulativen
Anteil beinhaltet.
Seminararbeit als html (88kB)
|
|
div. Dokumente, Prof. Dr. Heike (a. D.)
|
Zusammenfassung:
Hier findet man die Essentials aus dem Skript, der Übungen und der Klausuren von Prof. Heike in
Statistik II (alle ohne Gewähr).
Einfach lineare Regression als doc (21kB)
Verteilungsfunktionen als doc (35kB)
Schätzverfahren als doc (23kB)
Stichproben als doc (32kB)
�ntervallschätzverfahren als doc (51kB)
Signifikanztestverfahren als doc (41kB)
Nichtparametrische Testverfahren als doc (68kB)
Multiple Regression als doc (24kB)
|
|
Praktikum, 1998, Prof. Dr. W. Henhapl
Fachgebiet Praktische Informatik, TU Darmstadt
|
Zusammenfassung:
Die Kapazitätsverordnung mit ihren Ausführungsbestimmungen dient der Ermittlung von
Zulassungszahlen in NC-Studiengängen und zur Berechnung von Ausbildungskapazitäten in den
Lehreinheiten der Hochschule.
Im einzelnen soll das zu entwickelnde Programm daher folgende Teilbereiche abdecken:
die quantitative Erfassung der Studienordnungen der TU Darmstadt nach den Vorgaben der Kapazitätsverordnung
die Ermittlung der Aufnahmekapazitäten für alle Lehreinheiten der TU Darmstadt nach den Vorgaben der Kapazitätsverordnung
die Ermittlung der rechnerischen Studierenden für das Verteilungsmodell für die laufenden Mittel für Forschung und Lehre an der TU Darmstadt
Zur Zeit existieren für jeden Bereich teilweise makroprogrammierte EXCEL-Tabellen.
Als Programmierumgebung ist MS ACCESS vorgesehen. Ein PC kann für die Dauer der Durchführung der
Arbeit zur Verfügung gestellt werden. Aufgabenstellung und -begleitung erfolgt durch die Abteilung
Controlling und Datenverarbeitung.
Eine "Wunschvorstellung" wäre außerdem, wenn man die errechneten Daten über das WorldWideWeb einsehen könnte (also JavaApplet).
Link: Projektseite der Software-Engineeringsgruppe Spin,
|
|
|
 |
|
 |
 |
oli@uni-frankfurt.de  |
 |
 |
oli@icq  |
 |
 |
valarian@mg.mud.de  |
 |
 |
|
 |
 |
 |
|
 |
|
|
|
 |
|
 |
|
|
Letzte Änderung: 18.01.2005 |
|
|
|