Falls Sie nur an einem bestimmten Exempar interessiert sind, können Sie aus der folgenden Liste jenes wählen, an dem Sie interessiert sind:
Nur diese Ausgabe anzeigen…
Nur diese Ausgabe anzeigen…
Nutzung von Transfer-Learning basierten Ansätzen zur Textanalyse
9 Angebote vergleichen
Preise | 2021 | 2022 | 2023 |
---|---|---|---|
Schnitt | Fr. 26.54 (€ 27.19)¹ | Fr. 27.28 (€ 27.95)¹ | Fr. 27.28 (€ 27.95)¹ |
Nachfrage |
Nutzung von Transfer-Learning basierten Ansätzen zur Textanalyse (2020)
ISBN: 9783346276896 bzw. 3346276899, in Deutsch, GRIN, neu.
Nutzung von Transfer-Learning basierten Ansätzen zur Textanalyse (2020)
ISBN: 9783346276896 bzw. 3346276899, in Deutsch, GRIN, neu.
Nutzung von Transfer-Learning basierten Ansätzen zur Textanalyse (2020)
ISBN: 9783346276896 bzw. 3346276899, vermutlich in Deutsch, GRIN Verlag, Taschenbuch, neu.
Von Händler/Antiquariat, AHA-BUCH GmbH [51283250], Einbeck, Germany.
nach der Bestellung gedruckt Neuware - Studienarbeit aus dem Jahr 2020 im Fachbereich Informatik - Sonstiges, Note: 1,1, Hochschule München, Veranstaltung: Datenbanken, Sprache: Deutsch, Abstract: Transfer Learning schafft es durch vortrainierte Modelle komplexe neuronale Zusammenhänge abzubilden. Aus einem bereits fertig trainierten Korpus können Ergebnisse auf neue Themengebiete übertragen werden. Anfangs wurde diese Technologie hauptsächlich zur Bildanalyse eingesetzt, doch in den letzten Jahren gewann Transfer Learning auch im Bereich der Textverarbeitung immer mehr an Bedeutung. Das Ziel dieser Forschungsarbeit ist es, eine detaillierte Vermittlung des aktuellen Stands der Wissenschaft zu liefern.Hierbei wird neben einem grundlegenden Überblick über künstliche neuronale Netzwerke zunächst ein Verständnis für Transfer Learning vermittelt, in dem die Einsatzgebiete, Herausforderungen und Risiken unterschiedlicher Transfer Learning Strategien aufgezeigt werden. Insbesondere wird die spezielle Anwendung BERT ausführlich evaluiert und nicht nur deren Entwicklung, sondern auch die Funktionsweise erörtert. BERT, Bidirectional Encoder Representations from Transformers, wurde 2018 von Google veröffentlicht und gilt als Fundament für eine neue Art der Textverarbeitung. Damit BERT im Kontext der Textanalyse eine objektive Einordnung erfährt, werden differenzierte Modelle wie Doc2Vec und GloVe unter die Lupe genommen, um zusätzliche Blickwinkel auf Transfer Learning zu erschliessen. Diese einzelnen Modelle können mit Hilfe von Benchmark-Methoden untereinander verglichen werden. Dabei werden neben dem General Language Understanding Evaluation (GLUE) Benchmark, ebenfalls Analyseaufgaben, wie SQuAD und SWAG erläutert und die einzelnen Modelle auf deren Rangliste miteinander in Konkurrenz gesetzt.Diese Benchmark-Methoden sind ein Zusammenschluss von einzelnen Ressourcen, die zum trainieren, analysieren und bewerten von Systemen zum Verständnis natürlicher Sprachen, wie BERT, dienen. Abgerundet wird die Studienarbeit mit einem Ausblick in die Zukunft in der klar Stellung bezogen werden kann, dass Transfer Learning auch in den nächsten Jahren einen hohen Stellenwert im Bereich der Verbesserung und Verbreitung von KI einnimmt. Abschliessend wird eine neue Technologie erwähnt, die eventuell die das Zusammenspiel mit Transfer Learning revolutionieren könnte. 52 pp. Deutsch, Books.
Nutzung von Transfer-Learning basierten Ansätzen zur Textanalyse (2020)
ISBN: 9783346276896 bzw. 3346276899, in Deutsch, GRIN Verlag, Taschenbuch, neu.
Von Händler/Antiquariat, buecher.de GmbH & Co. KG, [1].
Studienarbeit aus dem Jahr 2020 im Fachbereich Informatik - Sonstiges, Note: 1,1, Hochschule München, Veranstaltung: Datenbanken, Sprache: Deutsch, Abstract: Transfer Learning schafft es durch vortrainierte Modelle komplexe neuronale Zusammenhänge abzubilden. Aus einem bereits fertig trainierten Korpus können Ergebnisse auf neue Themengebiete übertragen werden. Anfangs wurde diese Technologie hauptsächlich zur Bildanalyse eingesetzt, doch in den letzten Jahren gewann Transfer Learning auch im Bereich der Textverarbeitung immer mehr an Bedeutung. Das Ziel dieser Forschungsarbeit ist es, eine detaillierte Vermittlung des aktuellen Stands der Wissenschaft zu liefern. Hierbei wird neben einem grundlegenden Überblick über künstliche neuronale Netzwerke zunächst ein Verständnis für Transfer Learning vermittelt, in dem die Einsatzgebiete, Herausforderungen und Risiken unterschiedlicher Transfer Learning Strategien aufgezeigt werden. Insbesondere wird die spezielle Anwendung BERT ausführlich evaluiert und nicht nur deren Entwicklung, sondern auch die Funktionsweise erörtert. BERT, Bidirectional Encoder Representations from Transformers, wurde 2018 von Google veröffentlicht und gilt als Fundament für eine neue Art der Textverarbeitung. Damit BERT im Kontext der Textanalyse eine objektive Einordnung erfährt, werden differenzierte Modelle wie Doc2Vec und GloVe unter die Lupe genommen, um zusätzliche Blickwinkel auf Transfer Learning zu erschliessen. Diese einzelnen Modelle können mit Hilfe von Benchmark-Methoden untereinander verglichen werden. Dabei werden neben dem General Language Understanding Evaluation (GLUE) Benchmark, ebenfalls Analyseaufgaben, wie SQuAD und SWAG erläutert und die einzelnen Modelle auf deren Rangliste miteinander in Konkurrenz gesetzt. Diese Benchmark-Methoden sind ein Zusammenschluss von einzelnen Ressourcen, die zum trainieren, analysieren und bewerten von Systemen zum Verständnis natürlicher Sprachen, wie BERT, dienen. Abgerundet wird die Studienarbeit mit einem Ausblick in die Zukunft in der klar Stellung bezogen werden kann, dass Transfer Learning auch in den nächsten Jahren einen hohen Stellenwert im Bereich der Verbesserung und Verbreitung von KI einnimmt. Abschliessend wird eine neue Technologie erwähnt, die eventuell die das Zusammenspiel mit Transfer Learning revolutionieren könnte. 2020. 52 S. 210 mm Versandfertig in 6-10 Tagen, Softcover, Neuware, Offene Rechnung (Vorkasse vorbehalten).
Nutzung von Transfer-Learning basierten Ansätzen zur Textanalyse (2018)
ISBN: 9783346276889 bzw. 3346276880, in Deutsch, GRIN Verlag, neu, E-Book, elektronischer Download.
Nutzung von Transfer-Learning basierten Ansätzen zur Textanalyse: Studienarbeit aus dem Jahr 2020 im Fachbereich Informatik - Sonstiges, Note: 1,1, Hochschule München, Veranstaltung: Datenbanken, Sprache: Deutsch, Abstract: Transfer Learning schafft es durch vortrainierte Modelle komplexe neuronale Zusammenhänge abzubilden. Aus einem bereits fertig trainierten Korpus können Ergebnisse auf neue Themengebiete übertragen werden. Anfangs wurde diese Technologie hauptsächlich zur Bildanalyse eingesetzt, doch in den letzten Jahren gewann Transfer Learning auch im Bereich der Textverarbeitung immer mehr an Bedeutung. Das Ziel dieser Forschungsarbeit ist es, eine detaillierte Vermittlung des aktuellen Stands der Wissenschaft zu liefern. Hierbei wird neben einem grundlegenden Überblick über künstliche neuronale Netzwerke zunächst ein Verständnis für Transfer Learning vermittelt, in dem die Einsatzgebiete, Herausforderungen und Risiken unterschiedlicher Transfer Learning Strategien aufgezeigt werden. Insbesondere wird die spezielle Anwendung BERT ausführlich evaluiert und nicht nur deren Entwicklung, sondern auch die Funktionsweise erörtert. BERT, Bidirectional Encoder Representations from Transformers, wurde 2018 von Google veröffentlicht und gilt als Fundament für eine neue Art der Textverarbeitung. Damit BERT im Kontext der Textanalyse eine objektive Einordnung erfährt, werden differenzierte Modelle wie Doc2Vec und GloVe unter die Lupe genommen, um zusätzliche Blickwinkel auf Transfer Learning zu erschliessen. Diese einzelnen Modelle können mit Hilfe von Benchmark-Methoden untereinander verglichen werden. Dabei werden neben dem General Language Understanding Evaluation (GLUE) Benchmark, ebenfalls Analyseaufgaben, wie SQuAD und SWAG erläutert und die einzelnen Modelle auf deren Rangliste miteinander in Konkurrenz gesetzt. Diese Benchmark-Methoden sind ein Zusammenschluss von einzelnen Ressourcen, die zum trainieren, analysieren und bewerten von Systemen zum Verständnis natürlicher Sprachen, wie BERT, dienen. Abgerundet wird die Studienarbeit mit einem Ausblick in die Zukunft in der klar Stellung bezogen werden kann, dass Transfer Learning auch in den nächsten Jahren einen hohen Stellenwert im Bereich der Verbesserung und Verbreitung von KI einnimmt. Abschliessend wird eine neue Technologie erwähnt, die eventuell die das Zusammenspiel mit Transfer Learning revolutionieren könnte. Ebook.
Nutzung von Transfer-Learning basierten Ansätzen zur Textanalyse (eBook, PDF) (2018)
ISBN: 9783346276889 bzw. 3346276880, vermutlich in Deutsch, GRIN Verlag, neu.
Studienarbeit aus dem Jahr 2020 im Fachbereich Informatik - Sonstiges, Note: 1,1, Hochschule München, Veranstaltung: Datenbanken, Sprache: Deutsch, Abstract: Transfer Learning schafft es durch vortrainierte Modelle komplexe neuronale Zusammenhänge abzubilden. Aus einem bereits fertig trainierten Korpus können Ergebnisse auf neue Themengebiete übertragen werden. Anfangs wurde diese Technologie hauptsächlich zur Bildanalyse eingesetzt, doch in den letzten Jahren gewann Transfer Learning auch im Bereich der Textverarbeitung immer mehr an Bedeutung. Das Ziel dieser Forschungsarbeit ist es, eine detaillierte Vermittlung des aktuellen Stands der Wissenschaft zu liefern. Hierbei wird neben einem grundlegenden Überblick über künstliche neuronale Netzwerke zunächst ein Verständnis für Transfer Learning vermittelt, in dem die Einsatzgebiete, Herausforderungen und Risiken unterschiedlicher Transfer Learning Strategien aufgezeigt werden. Insbesondere wird die spezielle Anwendung BERT ausführlich evaluiert und nicht nur deren Entwicklung, sondern auch die Funktionsweise erörtert. BERT, Bidirectional Encoder Representations from Transformers, wurde 2018 von Google veröffentlicht und gilt als Fundament für eine neue Art der Textverarbeitung. Damit BERT im Kontext der Textanalyse eine objektive Einordnung erfährt, werden differenzierte Modelle wie Doc2Vec und GloVe unter die Lupe genommen, um zusätzliche Blickwinkel auf Transfer Learning zu erschliessen. Diese einzelnen Modelle können mit Hilfe von Benchmark-Methoden untereinander verglichen werden. Dabei werden neben dem General Language Understanding Evaluation (GLUE) Benchmark, ebenfalls Analyseaufgaben, wie SQuAD und SWAG erläutert und die einzelnen Modelle auf deren Rangliste miteinander in Konkurrenz gesetzt. Diese Benchmark-Methoden sind ein Zusammenschluss von einzelnen Ressourcen, die zum trainieren, analysieren und bewerten von Systemen zum Verständnis natürlicher Sprachen, wie BERT, dienen. Abgerundet wird die Studienarbeit mit einem Ausblick in die Zukunft in der klar Stellung bezogen werden kann, dass Transfer Learning auch in den nächsten Jahren einen hohen Stellenwert im Bereich der Verbesserung und Verbreitung von KI einnimmt. Abschliessend wird eine neue Technologie erwähnt, die eventuell die das Zusammenspiel mit Transfer Learning revolutionieren könnte.
Nutzung von Transfer-Learning basierten Ansätzen zur Textanalyse (2020)
ISBN: 9783346276896 bzw. 3346276899, in Deutsch, Droemer, München, Deutschland, neu, Hörbuch.
Studienarbeit aus dem Jahr 2020 im Fachbereich Informatik - Sonstiges, Note: 1,1, Hochschule München, Veranstaltung: Datenbanken, Sprache: Deutsch, Abstract: Transfer Learning schafft es durch vortrainierte Modelle komplexe neuronale Zusammenhänge abzubilden. Aus einem bereits fertig trainierten Korpus können Ergebnisse auf neue Themengebiete übertragen werden. Anfangs wurde diese Technologie hauptsächlich zur Bildanalyse eingesetzt, doch in den letzten Jahren gewann Transfer Learning auch im Bereich der Textverarbeitung immer mehr an Bedeutung. Das Ziel dieser Forschungsarbeit ist es, eine detaillierte Vermittlung des aktuellen Stands der Wissenschaft zu liefern. Hierbei wird neben einem grundlegenden Überblick über künstliche neuronale Netzwerke zunächst ein Verständnis für Transfer Learning vermittelt, in dem die Einsatzgebiete, Herausforderungen und Risiken unterschiedlicher Transfer Learning Strategien aufgezeigt werden. Insbesondere wird die spezielle Anwendung BERT ausführlich evaluiert und nicht nur deren Entwicklung, sondern auch die Funktionsweise erörtert. BERT, Bidirectional Encoder Representations from Transformers, wurde 2018 von Google veröffentlicht und gilt als Fundament für eine neue Art der Textverarbeitung. Damit BERT im Kontext der Textanalyse eine objektive Einordnung erfährt, werden differenzierte Modelle wie Doc2Vec und GloVe unter die Lupe genommen, um zusätzliche Blickwinkel auf Transfer Learning zu erschliessen. Diese einzelnen Modelle können mit Hilfe von Benchmark-Methoden untereinander verglichen werden. Dabei werden neben dem General Language Understanding Evaluation (GLUE) Benchmark, ebenfalls Analyseaufgaben, wie SQuAD und SWAG erläutert und die einzelnen Modelle auf deren Rangliste miteinander in Konkurrenz gesetzt. Diese Benchmark-Methoden sind ein Zusammenschluss von einzelnen Ressourcen, die zum trainieren, analysieren und bewerten von Systemen zum Verständnis natürlicher Sprachen, wie BERT, dienen. Abgerundet wird die Studienarbeit mit einem Ausblick in die Zukunft in der klar Stellung bezogen werden kann, dass Transfer Learning auch in den nächsten Jahren einen hohen Stellenwert im Bereich der Verbesserung und Verbreitung von KI einnimmt. Abschliessend wird eine neue Technologie erwähnt, die eventuell die das Zusammenspiel mit Transfer Learning revolutionieren könnte.
Nutzung von Transfer-Learning basierten Ansätzen zur Textanalyse (2017)
ISBN: 9783346276896 bzw. 3346276899, vermutlich in Deutsch, GRIN Verlag, Taschenbuch, neu, Nachdruck.
PRINT ON DEMAND Book; New; Publication Year 2017; Fast Shipping from the UK. Books.