diff --git a/Proseminar.bib b/Proseminar.bib index 506f158..48d148e 100644 --- a/Proseminar.bib +++ b/Proseminar.bib @@ -220,6 +220,13 @@ NOTE = {Aufgerufen 16.10.2021} } +@misc{scenenn, + TITLE = {SceneNN: A scene meshes dataset with annotations}, + AUTHOR = {B. Hua, Q. Pham, D. T. Nguyen and M. Tran and L. Yu and S. Yeung}, + YEAR = {2016}, + JOURNAL = {3DV} +} + @misc{se-TrackNet, TITLE = {se (3)-tracknet: Data-driven 6d pose tracking by calibrating image residuals in synthetic domains}, AUTHOR = {B. Wen and et al.}, diff --git a/Proseminar.pdf b/Proseminar.pdf index 10a8f80..7f3c4de 100644 Binary files a/Proseminar.pdf and b/Proseminar.pdf differ diff --git a/Proseminar.tex b/Proseminar.tex index 995040e..70115ab 100644 --- a/Proseminar.tex +++ b/Proseminar.tex @@ -417,16 +417,24 @@ \item[Laufzeit] 200 Posen pro Kamerabild bei 30Hz Bildrate \end{description*} - \subsection{ICP} + \subsection{Open3D} + Open3D\cite{ICP} ist eine Open-Source-Bibliothek für die schnelle Entwicklung von Software, die mit 3D-Daten arbeitet. + Das Frontend stellt eine Reihe sorgfältig ausgewählter Datenstrukturen und Algorithmen sowohl in C++ als auch in Python zur Verfügung. Das Backend ist hochgradig optimiert und auf Parallelisierung ausgelegt. + Open3D bietet Implementierungen von mehreren moderner State-of-the-Art Oberflächenregistrierungsmethoden, einschließlich paarweise globale Registrierung, paarweise lokale Verfeinerung und Mehrwege Registrierung unter Verwendung der Pose-Graph-Optimierung. + Der Arbeitsablauf beginnt mit dem Einlesen roher Punktwolken, deren Downsampling und die Schätzung der Normalen. + Es nimmt eine RGB-D-Sequenz als Eingabe und durchläuft drei Hauptschritte. + + (i) Aufbau lokaler geometrischer Oberflächen (als Fragmente bezeichnet) aus kurzen Teilsequenzen der RGB-D-Eingangssequenz. + + (ii) Globale Ausrichtung der Fragmente, um Fragmentposen und eine Kamerakalibrierungsfunktion zu erhalten. + + (iii) Integration von RGB-D-Bildern zur Erstellung eines Netzmodells für die Szene. \begin{description*} - \item[Modell] - \item[Video-Input] - \item[Datensatz] + \item[Modell] ohne + \item[Video-Input] RGB-D + \item[Datensatz] SceneNN\cite{scenenn} \item[Genauigkeit] - \begin{itemize*} - \item - \end{itemize*} \item[Ressourcen] \item[Laufzeit] \end{description*} @@ -476,7 +484,7 @@ Vergleich der unterschiedlichen Methoden unterscheidbar nach \colorbox{Mahogany} \multirow{3}{1.5cm}{Kategorie Modell} & NOCS\cite{NormalizedObjectCoordiante} & Feature Matching & & \\ & KeypointNet\cite{KeypointNet} & & 6-PACK\cite{6pack} & \\ & & & & \\\hline - \multirow{3}{1.5cm}{ohne Modell} & ICP\cite{ICP} & Iterative Closest Point & MaskFusion\cite{MaskFusion} & \\ + \multirow{3}{1.5cm}{ohne Modell} & & Iterative Closest Point & MaskFusion\cite{MaskFusion} & ICP\cite{ICP} \\ & & Analyse-durch-Synthese \cite{CategoryLevelObject} & Analyse-durch-Synthese \cite{CategoryLevelObject} & TEASER++\cite{Teaser++} \\ & & & BundleTrack\cite{BundleTrack} & \\ & & PoseCNN\cite{PoseCNN} & PoseCNN\cite{PoseCNN}+ICP\cite{ICP} & \\