starting 3rd semester
This commit is contained in:
parent
f754d784f6
commit
e3c73f4593
556
.gitignore
vendored
556
.gitignore
vendored
@ -1,278 +1,278 @@
|
|||||||
.vscode
|
.vscode
|
||||||
|
|
||||||
## Core latex/pdflatex auxiliary files:
|
## Core latex/pdflatex auxiliary files:
|
||||||
*.aux
|
*.aux
|
||||||
*.lof
|
*.lof
|
||||||
*.log
|
*.log
|
||||||
*.lot
|
*.lot
|
||||||
*.fls
|
*.fls
|
||||||
*.out
|
*.out
|
||||||
*.toc
|
*.toc
|
||||||
*.fmt
|
*.fmt
|
||||||
*.fot
|
*.fot
|
||||||
*.cb
|
*.cb
|
||||||
*.cb2
|
*.cb2
|
||||||
.*.lb
|
.*.lb
|
||||||
|
|
||||||
## Intermediate documents:
|
## Intermediate documents:
|
||||||
*.dvi
|
*.dvi
|
||||||
*.xdv
|
*.xdv
|
||||||
*-converted-to.*
|
*-converted-to.*
|
||||||
# these rules might exclude image files for figures etc.
|
# these rules might exclude image files for figures etc.
|
||||||
# *.ps
|
# *.ps
|
||||||
# *.eps
|
# *.eps
|
||||||
# *.pdf
|
# *.pdf
|
||||||
|
|
||||||
## Generated if empty string is given at "Please type another file name for output:"
|
## Generated if empty string is given at "Please type another file name for output:"
|
||||||
.pdf
|
.pdf
|
||||||
|
|
||||||
## Bibliography auxiliary files (bibtex/biblatex/biber):
|
## Bibliography auxiliary files (bibtex/biblatex/biber):
|
||||||
*.bbl
|
*.bbl
|
||||||
*.bcf
|
*.bcf
|
||||||
*.blg
|
*.blg
|
||||||
*-blx.aux
|
*-blx.aux
|
||||||
*-blx.bib
|
*-blx.bib
|
||||||
*.run.xml
|
*.run.xml
|
||||||
|
|
||||||
## Build tool auxiliary files:
|
## Build tool auxiliary files:
|
||||||
*.fdb_latexmk
|
*.fdb_latexmk
|
||||||
*.synctex
|
*.synctex
|
||||||
*.synctex(busy)
|
*.synctex(busy)
|
||||||
*.synctex.gz
|
*.synctex.gz
|
||||||
*.synctex.gz(busy)
|
*.synctex.gz(busy)
|
||||||
*.pdfsync
|
*.pdfsync
|
||||||
|
|
||||||
## Build tool directories for auxiliary files
|
## Build tool directories for auxiliary files
|
||||||
# latexrun
|
# latexrun
|
||||||
latex.out/
|
latex.out/
|
||||||
|
|
||||||
## Auxiliary and intermediate files from other packages:
|
## Auxiliary and intermediate files from other packages:
|
||||||
# algorithms
|
# algorithms
|
||||||
*.alg
|
*.alg
|
||||||
*.loa
|
*.loa
|
||||||
|
|
||||||
# achemso
|
# achemso
|
||||||
acs-*.bib
|
acs-*.bib
|
||||||
|
|
||||||
# amsthm
|
# amsthm
|
||||||
*.thm
|
*.thm
|
||||||
|
|
||||||
# beamer
|
# beamer
|
||||||
*.nav
|
*.nav
|
||||||
*.pre
|
*.pre
|
||||||
*.snm
|
*.snm
|
||||||
*.vrb
|
*.vrb
|
||||||
|
|
||||||
# changes
|
# changes
|
||||||
*.soc
|
*.soc
|
||||||
|
|
||||||
# comment
|
# comment
|
||||||
*.cut
|
*.cut
|
||||||
|
|
||||||
# cprotect
|
# cprotect
|
||||||
*.cpt
|
*.cpt
|
||||||
|
|
||||||
# elsarticle (documentclass of Elsevier journals)
|
# elsarticle (documentclass of Elsevier journals)
|
||||||
*.spl
|
*.spl
|
||||||
|
|
||||||
# endnotes
|
# endnotes
|
||||||
*.ent
|
*.ent
|
||||||
|
|
||||||
# fixme
|
# fixme
|
||||||
*.lox
|
*.lox
|
||||||
|
|
||||||
# feynmf/feynmp
|
# feynmf/feynmp
|
||||||
*.mf
|
*.mf
|
||||||
*.mp
|
*.mp
|
||||||
*.t[1-9]
|
*.t[1-9]
|
||||||
*.t[1-9][0-9]
|
*.t[1-9][0-9]
|
||||||
*.tfm
|
*.tfm
|
||||||
|
|
||||||
#(r)(e)ledmac/(r)(e)ledpar
|
#(r)(e)ledmac/(r)(e)ledpar
|
||||||
*.end
|
*.end
|
||||||
*.?end
|
*.?end
|
||||||
*.[1-9]
|
*.[1-9]
|
||||||
*.[1-9][0-9]
|
*.[1-9][0-9]
|
||||||
*.[1-9][0-9][0-9]
|
*.[1-9][0-9][0-9]
|
||||||
*.[1-9]R
|
*.[1-9]R
|
||||||
*.[1-9][0-9]R
|
*.[1-9][0-9]R
|
||||||
*.[1-9][0-9][0-9]R
|
*.[1-9][0-9][0-9]R
|
||||||
*.eledsec[1-9]
|
*.eledsec[1-9]
|
||||||
*.eledsec[1-9]R
|
*.eledsec[1-9]R
|
||||||
*.eledsec[1-9][0-9]
|
*.eledsec[1-9][0-9]
|
||||||
*.eledsec[1-9][0-9]R
|
*.eledsec[1-9][0-9]R
|
||||||
*.eledsec[1-9][0-9][0-9]
|
*.eledsec[1-9][0-9][0-9]
|
||||||
*.eledsec[1-9][0-9][0-9]R
|
*.eledsec[1-9][0-9][0-9]R
|
||||||
|
|
||||||
# glossaries
|
# glossaries
|
||||||
*.acn
|
*.acn
|
||||||
*.acr
|
*.acr
|
||||||
*.glg
|
*.glg
|
||||||
*.glo
|
*.glo
|
||||||
*.gls
|
*.gls
|
||||||
*.glsdefs
|
*.glsdefs
|
||||||
*.lzo
|
*.lzo
|
||||||
*.lzs
|
*.lzs
|
||||||
|
|
||||||
# uncomment this for glossaries-extra (will ignore makeindex's style files!)
|
# uncomment this for glossaries-extra (will ignore makeindex's style files!)
|
||||||
# *.ist
|
# *.ist
|
||||||
|
|
||||||
# gnuplottex
|
# gnuplottex
|
||||||
*-gnuplottex-*
|
*-gnuplottex-*
|
||||||
|
|
||||||
# gregoriotex
|
# gregoriotex
|
||||||
*.gaux
|
*.gaux
|
||||||
*.gtex
|
*.gtex
|
||||||
|
|
||||||
# htlatex
|
# htlatex
|
||||||
*.4ct
|
*.4ct
|
||||||
*.4tc
|
*.4tc
|
||||||
*.idv
|
*.idv
|
||||||
*.lg
|
*.lg
|
||||||
*.trc
|
*.trc
|
||||||
*.xref
|
*.xref
|
||||||
|
|
||||||
# hyperref
|
# hyperref
|
||||||
*.brf
|
*.brf
|
||||||
|
|
||||||
# knitr
|
# knitr
|
||||||
*-concordance.tex
|
*-concordance.tex
|
||||||
# TODO Comment the next line if you want to keep your tikz graphics files
|
# TODO Comment the next line if you want to keep your tikz graphics files
|
||||||
*.tikz
|
*.tikz
|
||||||
*-tikzDictionary
|
*-tikzDictionary
|
||||||
|
|
||||||
# listings
|
# listings
|
||||||
*.lol
|
*.lol
|
||||||
|
|
||||||
# luatexja-ruby
|
# luatexja-ruby
|
||||||
*.ltjruby
|
*.ltjruby
|
||||||
|
|
||||||
# makeidx
|
# makeidx
|
||||||
*.idx
|
*.idx
|
||||||
*.ilg
|
*.ilg
|
||||||
*.ind
|
*.ind
|
||||||
|
|
||||||
# minitoc
|
# minitoc
|
||||||
*.maf
|
*.maf
|
||||||
*.mlf
|
*.mlf
|
||||||
*.mlt
|
*.mlt
|
||||||
*.mtc[0-9]*
|
*.mtc[0-9]*
|
||||||
*.slf[0-9]*
|
*.slf[0-9]*
|
||||||
*.slt[0-9]*
|
*.slt[0-9]*
|
||||||
*.stc[0-9]*
|
*.stc[0-9]*
|
||||||
|
|
||||||
# minted
|
# minted
|
||||||
_minted*
|
_minted*
|
||||||
*.pyg
|
*.pyg
|
||||||
|
|
||||||
# morewrites
|
# morewrites
|
||||||
*.mw
|
*.mw
|
||||||
|
|
||||||
# nomencl
|
# nomencl
|
||||||
*.nlg
|
*.nlg
|
||||||
*.nlo
|
*.nlo
|
||||||
*.nls
|
*.nls
|
||||||
|
|
||||||
# pax
|
# pax
|
||||||
*.pax
|
*.pax
|
||||||
|
|
||||||
# pdfpcnotes
|
# pdfpcnotes
|
||||||
*.pdfpc
|
*.pdfpc
|
||||||
|
|
||||||
# sagetex
|
# sagetex
|
||||||
*.sagetex.sage
|
*.sagetex.sage
|
||||||
*.sagetex.py
|
*.sagetex.py
|
||||||
*.sagetex.scmd
|
*.sagetex.scmd
|
||||||
|
|
||||||
# scrwfile
|
# scrwfile
|
||||||
*.wrt
|
*.wrt
|
||||||
|
|
||||||
# sympy
|
# sympy
|
||||||
*.sout
|
*.sout
|
||||||
*.sympy
|
*.sympy
|
||||||
sympy-plots-for-*.tex/
|
sympy-plots-for-*.tex/
|
||||||
|
|
||||||
# pdfcomment
|
# pdfcomment
|
||||||
*.upa
|
*.upa
|
||||||
*.upb
|
*.upb
|
||||||
|
|
||||||
# pythontex
|
# pythontex
|
||||||
*.pytxcode
|
*.pytxcode
|
||||||
pythontex-files-*/
|
pythontex-files-*/
|
||||||
|
|
||||||
# tcolorbox
|
# tcolorbox
|
||||||
*.listing
|
*.listing
|
||||||
|
|
||||||
# thmtools
|
# thmtools
|
||||||
*.loe
|
*.loe
|
||||||
|
|
||||||
# TikZ & PGF
|
# TikZ & PGF
|
||||||
*.dpth
|
*.dpth
|
||||||
*.md5
|
*.md5
|
||||||
*.auxlock
|
*.auxlock
|
||||||
|
|
||||||
# todonotes
|
# todonotes
|
||||||
*.tdo
|
*.tdo
|
||||||
|
|
||||||
# vhistory
|
# vhistory
|
||||||
*.hst
|
*.hst
|
||||||
*.ver
|
*.ver
|
||||||
|
|
||||||
# easy-todo
|
# easy-todo
|
||||||
*.lod
|
*.lod
|
||||||
|
|
||||||
# xcolor
|
# xcolor
|
||||||
*.xcp
|
*.xcp
|
||||||
|
|
||||||
# xmpincl
|
# xmpincl
|
||||||
*.xmpi
|
*.xmpi
|
||||||
|
|
||||||
# xindy
|
# xindy
|
||||||
*.xdy
|
*.xdy
|
||||||
|
|
||||||
# xypic precompiled matrices and outlines
|
# xypic precompiled matrices and outlines
|
||||||
*.xyc
|
*.xyc
|
||||||
*.xyd
|
*.xyd
|
||||||
|
|
||||||
# endfloat
|
# endfloat
|
||||||
*.ttt
|
*.ttt
|
||||||
*.fff
|
*.fff
|
||||||
|
|
||||||
# Latexian
|
# Latexian
|
||||||
TSWLatexianTemp*
|
TSWLatexianTemp*
|
||||||
|
|
||||||
## Editors:
|
## Editors:
|
||||||
# WinEdt
|
# WinEdt
|
||||||
*.bak
|
*.bak
|
||||||
*.sav
|
*.sav
|
||||||
|
|
||||||
# Texpad
|
# Texpad
|
||||||
.texpadtmp
|
.texpadtmp
|
||||||
|
|
||||||
# LyX
|
# LyX
|
||||||
*.lyx~
|
*.lyx~
|
||||||
|
|
||||||
# Kile
|
# Kile
|
||||||
*.backup
|
*.backup
|
||||||
|
|
||||||
# gummi
|
# gummi
|
||||||
.*.swp
|
.*.swp
|
||||||
|
|
||||||
# KBibTeX
|
# KBibTeX
|
||||||
*~[0-9]*
|
*~[0-9]*
|
||||||
|
|
||||||
# TeXnicCenter
|
# TeXnicCenter
|
||||||
*.tps
|
*.tps
|
||||||
|
|
||||||
# auto folder when using emacs and auctex
|
# auto folder when using emacs and auctex
|
||||||
./auto/*
|
./auto/*
|
||||||
*.el
|
*.el
|
||||||
|
|
||||||
# expex forward references with \gathertags
|
# expex forward references with \gathertags
|
||||||
*-tags.tex
|
*-tags.tex
|
||||||
|
|
||||||
# standalone packages
|
# standalone packages
|
||||||
*.sta
|
*.sta
|
||||||
|
|
||||||
# Makeindex log files
|
# Makeindex log files
|
||||||
*.lpz
|
*.lpz
|
||||||
|
File diff suppressed because it is too large
Load Diff
File diff suppressed because it is too large
Load Diff
Before Width: | Height: | Size: 76 KiB After Width: | Height: | Size: 77 KiB |
File diff suppressed because one or more lines are too long
Before Width: | Height: | Size: 42 KiB After Width: | Height: | Size: 43 KiB |
File diff suppressed because it is too large
Load Diff
File diff suppressed because it is too large
Load Diff
@ -1,245 +1,245 @@
|
|||||||
\documentclass[10pt,landscape]{article}
|
\documentclass[10pt,landscape]{article}
|
||||||
\usepackage{multicol}
|
\usepackage{multicol}
|
||||||
\usepackage{calc}
|
\usepackage{calc}
|
||||||
\usepackage{ifthen}
|
\usepackage{ifthen}
|
||||||
\usepackage[landscape]{geometry}
|
\usepackage[landscape]{geometry}
|
||||||
\usepackage{amsmath,amsthm,amsfonts,amssymb}
|
\usepackage{amsmath,amsthm,amsfonts,amssymb}
|
||||||
\usepackage{color,graphicx,overpic}
|
\usepackage{color,graphicx,overpic}
|
||||||
\usepackage{hyperref}
|
\usepackage{hyperref}
|
||||||
|
|
||||||
\pdfinfo{
|
\pdfinfo{
|
||||||
/Title (Grundlagen und Diskrete Strukturen - Short Script)
|
/Title (Grundlagen und Diskrete Strukturen - Short Script)
|
||||||
/Creator (TeX)
|
/Creator (TeX)
|
||||||
/Producer (pdfTeX 1.40.0)
|
/Producer (pdfTeX 1.40.0)
|
||||||
/Author (Robert Jeutter)
|
/Author (Robert Jeutter)
|
||||||
/Subject (Grundlagen und Diskrete Strukturen)
|
/Subject (Grundlagen und Diskrete Strukturen)
|
||||||
}
|
}
|
||||||
|
|
||||||
% This sets page margins to .5 inch if using letter paper, and to 1cm
|
% This sets page margins to .5 inch if using letter paper, and to 1cm
|
||||||
% if using A4 paper. (This probably isn't strictly necessary.)
|
% if using A4 paper. (This probably isn't strictly necessary.)
|
||||||
% If using another size paper, use default 1cm margins.
|
% If using another size paper, use default 1cm margins.
|
||||||
\ifthenelse{\lengthtest { \paperwidth = 11in}}
|
\ifthenelse{\lengthtest { \paperwidth = 11in}}
|
||||||
{ \geometry{top=.5in,left=.5in,right=.5in,bottom=.5in} }
|
{ \geometry{top=.5in,left=.5in,right=.5in,bottom=.5in} }
|
||||||
{\ifthenelse{ \lengthtest{ \paperwidth = 297mm}}
|
{\ifthenelse{ \lengthtest{ \paperwidth = 297mm}}
|
||||||
{\geometry{top=1cm,left=1cm,right=1cm,bottom=1cm} }
|
{\geometry{top=1cm,left=1cm,right=1cm,bottom=1cm} }
|
||||||
{\geometry{top=1cm,left=1cm,right=1cm,bottom=1cm} }
|
{\geometry{top=1cm,left=1cm,right=1cm,bottom=1cm} }
|
||||||
}
|
}
|
||||||
|
|
||||||
% Turn off header and footer
|
% Turn off header and footer
|
||||||
\pagestyle{empty}
|
\pagestyle{empty}
|
||||||
|
|
||||||
% Redefine section commands to use less space
|
% Redefine section commands to use less space
|
||||||
\makeatletter
|
\makeatletter
|
||||||
\renewcommand{\section}{\@startsection{section}{1}{0mm}%
|
\renewcommand{\section}{\@startsection{section}{1}{0mm}%
|
||||||
{-1ex plus -.5ex minus -.2ex}%
|
{-1ex plus -.5ex minus -.2ex}%
|
||||||
{0.5ex plus .2ex}%x
|
{0.5ex plus .2ex}%x
|
||||||
{\normalfont\large\bfseries}}
|
{\normalfont\large\bfseries}}
|
||||||
\renewcommand{\subsection}{\@startsection{subsection}{2}{0mm}%
|
\renewcommand{\subsection}{\@startsection{subsection}{2}{0mm}%
|
||||||
{-1explus -.5ex minus -.2ex}%
|
{-1explus -.5ex minus -.2ex}%
|
||||||
{0.5ex plus .2ex}%
|
{0.5ex plus .2ex}%
|
||||||
{\normalfont\normalsize\bfseries}}
|
{\normalfont\normalsize\bfseries}}
|
||||||
\renewcommand{\subsubsection}{\@startsection{subsubsection}{3}{0mm}%
|
\renewcommand{\subsubsection}{\@startsection{subsubsection}{3}{0mm}%
|
||||||
{-1ex plus -.5ex minus -.2ex}%
|
{-1ex plus -.5ex minus -.2ex}%
|
||||||
{1ex plus .2ex}%
|
{1ex plus .2ex}%
|
||||||
{\normalfont\small\bfseries}}
|
{\normalfont\small\bfseries}}
|
||||||
\makeatother
|
\makeatother
|
||||||
|
|
||||||
% Define BibTeX command
|
% Define BibTeX command
|
||||||
\def\BibTeX{{\rm B\kern-.05em{\sc i\kern-.025em b}\kern-.08em
|
\def\BibTeX{{\rm B\kern-.05em{\sc i\kern-.025em b}\kern-.08em
|
||||||
T\kern-.1667em\lower.7ex\hbox{E}\kern-.125emX}}
|
T\kern-.1667em\lower.7ex\hbox{E}\kern-.125emX}}
|
||||||
|
|
||||||
% Don't print section numbers
|
% Don't print section numbers
|
||||||
\setcounter{secnumdepth}{0}
|
\setcounter{secnumdepth}{0}
|
||||||
|
|
||||||
|
|
||||||
\setlength{\parindent}{0pt}
|
\setlength{\parindent}{0pt}
|
||||||
\setlength{\parskip}{0pt plus 0.5ex}
|
\setlength{\parskip}{0pt plus 0.5ex}
|
||||||
|
|
||||||
%My Environments
|
%My Environments
|
||||||
\newtheorem{example}[section]{Example}
|
\newtheorem{example}[section]{Example}
|
||||||
% -----------------------------------------------------------------------
|
% -----------------------------------------------------------------------
|
||||||
|
|
||||||
\begin{document}
|
\begin{document}
|
||||||
\raggedright
|
\raggedright
|
||||||
\footnotesize
|
\footnotesize
|
||||||
\begin{multicols}{3}
|
\begin{multicols}{3}
|
||||||
|
|
||||||
|
|
||||||
% multicol parameters
|
% multicol parameters
|
||||||
% These lengths are set only within the two main columns
|
% These lengths are set only within the two main columns
|
||||||
%\setlength{\columnseprule}{0.25pt}
|
%\setlength{\columnseprule}{0.25pt}
|
||||||
\setlength{\premulticols}{1pt}
|
\setlength{\premulticols}{1pt}
|
||||||
\setlength{\postmulticols}{1pt}
|
\setlength{\postmulticols}{1pt}
|
||||||
\setlength{\multicolsep}{1pt}
|
\setlength{\multicolsep}{1pt}
|
||||||
\setlength{\columnsep}{2pt}
|
\setlength{\columnsep}{2pt}
|
||||||
|
|
||||||
\paragraph{Relationen}
|
\paragraph{Relationen}
|
||||||
Sei $R\in AxA$ binäre Relation auf A
|
Sei $R\in AxA$ binäre Relation auf A
|
||||||
\begin{itemize}
|
\begin{itemize}
|
||||||
\item Reflexiv $\leftrightarrow \text{ xRx } \forall x \in A$
|
\item Reflexiv $\leftrightarrow \text{ xRx } \forall x \in A$
|
||||||
\item symmetrisch $\leftrightarrow \text{ xRy } \rightarrow \text{ yRx }$
|
\item symmetrisch $\leftrightarrow \text{ xRy } \rightarrow \text{ yRx }$
|
||||||
\item Antisymmetrisch $\leftrightarrow \text{ xRy } \wedge yRx \rightarrow x=y$
|
\item Antisymmetrisch $\leftrightarrow \text{ xRy } \wedge yRx \rightarrow x=y$
|
||||||
\item Transitiv $\leftrightarrow \text{ xRy } \wedge \text{ yRz } \rightarrow \text{ xRz }$
|
\item Transitiv $\leftrightarrow \text{ xRy } \wedge \text{ yRz } \rightarrow \text{ xRz }$
|
||||||
\item totale Relation $\leftrightarrow \text{ xRy } \vee \text{ yRx } \forall x,y \in A$
|
\item totale Relation $\leftrightarrow \text{ xRy } \vee \text{ yRx } \forall x,y \in A$
|
||||||
\end{itemize}
|
\end{itemize}
|
||||||
R heißt:
|
R heißt:
|
||||||
\begin{itemize}
|
\begin{itemize}
|
||||||
\item Äquivalenzrelation $\leftrightarrow$ reflexiv, symmetrisch und transitiv
|
\item Äquivalenzrelation $\leftrightarrow$ reflexiv, symmetrisch und transitiv
|
||||||
\item Ordnung $\leftrightarrow$ reflexiv, antisymmetrisch und transitiv
|
\item Ordnung $\leftrightarrow$ reflexiv, antisymmetrisch und transitiv
|
||||||
\item Totalordnung $\leftrightarrow$ Ordnung und total
|
\item Totalordnung $\leftrightarrow$ Ordnung und total
|
||||||
\item Quasiordnung $\leftrightarrow$ reflexiv und transitiv
|
\item Quasiordnung $\leftrightarrow$ reflexiv und transitiv
|
||||||
\end{itemize}
|
\end{itemize}
|
||||||
|
|
||||||
\paragraph{Partition/Klasse}
|
\paragraph{Partition/Klasse}
|
||||||
Sei $C\wp (A)$. C heißt Partition/Klasse von A, falls gilt:
|
Sei $C\wp (A)$. C heißt Partition/Klasse von A, falls gilt:
|
||||||
\begin{itemize}
|
\begin{itemize}
|
||||||
\item $\bigcup C=A$ d.h. jedes $x\in A$ liegt in (min) einem $y\in C$
|
\item $\bigcup C=A$ d.h. jedes $x\in A$ liegt in (min) einem $y\in C$
|
||||||
\item $\emptyset \not \in C$ d.h. jedes $y\in C$ enthält (min) ein Element von A
|
\item $\emptyset \not \in C$ d.h. jedes $y\in C$ enthält (min) ein Element von A
|
||||||
\item $x \cap y = \emptyset$ f.a. $x\not \in y$ aus C
|
\item $x \cap y = \emptyset$ f.a. $x\not \in y$ aus C
|
||||||
\end{itemize}
|
\end{itemize}
|
||||||
|
|
||||||
\paragraph{Ordnungen}
|
\paragraph{Ordnungen}
|
||||||
Sei $leq$ eine Ordnung auf X. Sei $A\subseteq X, b\in X$
|
Sei $leq$ eine Ordnung auf X. Sei $A\subseteq X, b\in X$
|
||||||
\begin{itemize}
|
\begin{itemize}
|
||||||
\item b minimal in A $\leftrightarrow b\in A$ und $(c\leq b \rightarrow c=b f.a. c\in A)$
|
\item b minimal in A $\leftrightarrow b\in A$ und $(c\leq b \rightarrow c=b f.a. c\in A)$
|
||||||
\item b maximal in A $\leftrightarrow b\in A$ und $(b\leq c \rightarrow b=c f.a. c\in A)$
|
\item b maximal in A $\leftrightarrow b\in A$ und $(b\leq c \rightarrow b=c f.a. c\in A)$
|
||||||
\item b kleinstes Element in A $\leftrightarrow b\in A$ und $(b\leq c f.a. c\in A)$
|
\item b kleinstes Element in A $\leftrightarrow b\in A$ und $(b\leq c f.a. c\in A)$
|
||||||
\item b größtes Element in A $\leftrightarrow b\in A$ und $(c\leq b f.a. c\in A)$
|
\item b größtes Element in A $\leftrightarrow b\in A$ und $(c\leq b f.a. c\in A)$
|
||||||
\item b untere Schranke von A $\leftrightarrow b\leq c f.a. c\in A$
|
\item b untere Schranke von A $\leftrightarrow b\leq c f.a. c\in A$
|
||||||
\item b obere Schranke von A $\leftrightarrow c\leq b f.a. c\in A$
|
\item b obere Schranke von A $\leftrightarrow c\leq b f.a. c\in A$
|
||||||
\item b kleinste obere Schranke $\leftrightarrow$ kleinstes Element von obere Schranke; Supremum $\lor A = b$
|
\item b kleinste obere Schranke $\leftrightarrow$ kleinstes Element von obere Schranke; Supremum $\lor A = b$
|
||||||
\item b größte untere Schranke $\leftrightarrow$ größte Element von untere Schranke; Infinum $\land A = b$
|
\item b größte untere Schranke $\leftrightarrow$ größte Element von untere Schranke; Infinum $\land A = b$
|
||||||
\end{itemize}
|
\end{itemize}
|
||||||
|
|
||||||
\paragraph{Induktion I}
|
\paragraph{Induktion I}
|
||||||
Sei $p(n)\in \mathbb{N}$. Gelte $p(0)$ und $p(n)\rightarrow p(n^{+})$ f.a. $n\in \mathbb{N}$ dann ist $p(n)$ wahr f.a. $n \in \mathbb{N}$.
|
Sei $p(n)\in \mathbb{N}$. Gelte $p(0)$ und $p(n)\rightarrow p(n^{+})$ f.a. $n\in \mathbb{N}$ dann ist $p(n)$ wahr f.a. $n \in \mathbb{N}$.
|
||||||
|
|
||||||
\paragraph{Induktion II}
|
\paragraph{Induktion II}
|
||||||
Sei $p(n)\in \mathbb{N}$, gelte $\{\forall x < n: p(x)\} \rightarrow p(n)$ f.a. $n\in \mathbb{N}$. Damit ist $p(n)$ wahr für alle $n\in \mathbb{N}$.
|
Sei $p(n)\in \mathbb{N}$, gelte $\{\forall x < n: p(x)\} \rightarrow p(n)$ f.a. $n\in \mathbb{N}$. Damit ist $p(n)$ wahr für alle $n\in \mathbb{N}$.
|
||||||
|
|
||||||
\section{Funktionen}
|
\section{Funktionen}
|
||||||
Eine Relation $f\subseteq A x B$ heißt Funktion $f:A\rightarrow B$ falls es zu jedem $x\in A$ genau ein $y\in B$ mit $(x,y)\in f$ gibt.
|
Eine Relation $f\subseteq A x B$ heißt Funktion $f:A\rightarrow B$ falls es zu jedem $x\in A$ genau ein $y\in B$ mit $(x,y)\in f$ gibt.
|
||||||
\begin{itemize}
|
\begin{itemize}
|
||||||
\item injektiv $\leftrightarrow$ jedes y aus B hat höchstens ein Urbild $f(x)=f(y)\rightarrow x=y$
|
\item injektiv $\leftrightarrow$ jedes y aus B hat höchstens ein Urbild $f(x)=f(y)\rightarrow x=y$
|
||||||
\item subjektiv $\leftrightarrow$ jedes y aus B hat wenigstens ein Urbild $f(x)=y$
|
\item subjektiv $\leftrightarrow$ jedes y aus B hat wenigstens ein Urbild $f(x)=y$
|
||||||
\item bijektiv $\leftrightarrow$ jedes y aus B hat genau ein Urbild; injektiv und surjektiv
|
\item bijektiv $\leftrightarrow$ jedes y aus B hat genau ein Urbild; injektiv und surjektiv
|
||||||
\end{itemize}
|
\end{itemize}
|
||||||
ist $f:A\rightarrow B$ bijektiv, so ist $f^{-1}$ eine Funktion B nach A und gleichmächtig.
|
ist $f:A\rightarrow B$ bijektiv, so ist $f^{-1}$ eine Funktion B nach A und gleichmächtig.
|
||||||
|
|
||||||
\section{Gruppen, Ringe, Körper}
|
\section{Gruppen, Ringe, Körper}
|
||||||
Eine Menge G mit einer Operation $\circ$ auf G heißt Gruppe, falls gilt:
|
Eine Menge G mit einer Operation $\circ$ auf G heißt Gruppe, falls gilt:
|
||||||
\begin{itemize}
|
\begin{itemize}
|
||||||
\item $a\circ (b\circ c) = (a\circ b)\circ c$ freie Auswertungsfolge
|
\item $a\circ (b\circ c) = (a\circ b)\circ c$ freie Auswertungsfolge
|
||||||
\item es gibt ein neutrales Element $e\in G$ mit $a\circ e=a$ und $e\circ a=a$ f.a. $a\in G$
|
\item es gibt ein neutrales Element $e\in G$ mit $a\circ e=a$ und $e\circ a=a$ f.a. $a\in G$
|
||||||
\item $\forall a\in G \exists b\in G: \{a\circ b=e\} \vee \{b\circ a=e\}; b=a^{-1}$
|
\item $\forall a\in G \exists b\in G: \{a\circ b=e\} \vee \{b\circ a=e\}; b=a^{-1}$
|
||||||
\end{itemize}
|
\end{itemize}
|
||||||
kommutativ/abelsch, falls neben obigen gilt:
|
kommutativ/abelsch, falls neben obigen gilt:
|
||||||
\begin{itemize}
|
\begin{itemize}
|
||||||
\item $a\circ b = b\circ a$ f.a. $a,b \in G$
|
\item $a\circ b = b\circ a$ f.a. $a,b \in G$
|
||||||
\end{itemize}
|
\end{itemize}
|
||||||
|
|
||||||
Zwei Gruppen $(G, \circ_G)$ und $(H,\circ_H)$ heißen isomorph, falls es einen Isomorphismus $(G,\circ_G)\cong (H,\circ_H)$ von $(G,\circ_G)$ nach $(H,\circ_H)$ gibt.
|
Zwei Gruppen $(G, \circ_G)$ und $(H,\circ_H)$ heißen isomorph, falls es einen Isomorphismus $(G,\circ_G)\cong (H,\circ_H)$ von $(G,\circ_G)$ nach $(H,\circ_H)$ gibt.
|
||||||
|
|
||||||
\paragraph{Addition \& Multiplikation}
|
\paragraph{Addition \& Multiplikation}
|
||||||
$+: \mathbb{N} x \mathbb{N} \rightarrow \mathbb{N}$ wird definiert durch:
|
$+: \mathbb{N} x \mathbb{N} \rightarrow \mathbb{N}$ wird definiert durch:
|
||||||
\begin{itemize}
|
\begin{itemize}
|
||||||
\item $m+0:=m$ (0 ist neutral)
|
\item $m+0:=m$ (0 ist neutral)
|
||||||
\item $m+n$ sei schon definiert
|
\item $m+n$ sei schon definiert
|
||||||
\item $m+n^+:=(m+n)^+$
|
\item $m+n^+:=(m+n)^+$
|
||||||
\item $m*0:=0$
|
\item $m*0:=0$
|
||||||
\item $m*n^+=m*n+m$
|
\item $m*n^+=m*n+m$
|
||||||
\item $[(a,b)]_{/\sim } + [(c,d)]_{/\sim } = [(a+c, b+d)]_{/\sim }$
|
\item $[(a,b)]_{/\sim } + [(c,d)]_{/\sim } = [(a+c, b+d)]_{/\sim }$
|
||||||
\item $[(a,b)]_{/\sim } * [(c,d)]_{/\sim } = [(ac+bd, ad+bc)]_{/\sim }$
|
\item $[(a,b)]_{/\sim } * [(c,d)]_{/\sim } = [(ac+bd, ad+bc)]_{/\sim }$
|
||||||
\end{itemize}
|
\end{itemize}
|
||||||
|
|
||||||
Ein Ring R ist eine Menge mit zwei Operationen $+,*: \mathbb{R} x \mathbb{R} \rightarrow \mathbb{R}$ mit:
|
Ein Ring R ist eine Menge mit zwei Operationen $+,*: \mathbb{R} x \mathbb{R} \rightarrow \mathbb{R}$ mit:
|
||||||
\begin{itemize}
|
\begin{itemize}
|
||||||
\item $a+(b+c) = (a+b)+c$ f.a. $a,b,c\in \mathbb{R}$
|
\item $a+(b+c) = (a+b)+c$ f.a. $a,b,c\in \mathbb{R}$
|
||||||
\item Es gibt ein neutrales Element $O\in \mathbb{R}$ mit $O+a=a+O=O$
|
\item Es gibt ein neutrales Element $O\in \mathbb{R}$ mit $O+a=a+O=O$
|
||||||
\item zu jedem $a\in \mathbb{R}$ gibt es ein $-a\in \mathbb{R}$ mit $a+(-a)=-a+a=0$
|
\item zu jedem $a\in \mathbb{R}$ gibt es ein $-a\in \mathbb{R}$ mit $a+(-a)=-a+a=0$
|
||||||
\item $a+b=b+a$ f.a. $a,b\in\mathbb{R}$
|
\item $a+b=b+a$ f.a. $a,b\in\mathbb{R}$
|
||||||
\item $a*(b*c)=(a*b)*c)$ f.a. $a,b,c\in\mathbb{R}$
|
\item $a*(b*c)=(a*b)*c)$ f.a. $a,b,c\in\mathbb{R}$
|
||||||
\item $a*(b+c)=a*b+a*c$ f.a. $a,b,c\in\mathbb{R}$
|
\item $a*(b+c)=a*b+a*c$ f.a. $a,b,c\in\mathbb{R}$
|
||||||
\item heißt Ring mit 1, falls: es gibt ein $1\in\mathbb{R}$ mit $a*1=1*a=a$
|
\item heißt Ring mit 1, falls: es gibt ein $1\in\mathbb{R}$ mit $a*1=1*a=a$
|
||||||
\item heißt kommutativ, falls: $a*b=b*a$ f.a. $a,b\in\mathbb{R}$
|
\item heißt kommutativ, falls: $a*b=b*a$ f.a. $a,b\in\mathbb{R}$
|
||||||
\item heißt Körper, falls: zu jedem $a\in\mathbb{R}$ gibt es ein $a^{-1}\in\mathbb{R}$ mit $a*a^{-1}=1$
|
\item heißt Körper, falls: zu jedem $a\in\mathbb{R}$ gibt es ein $a^{-1}\in\mathbb{R}$ mit $a*a^{-1}=1$
|
||||||
\item Ist $\mathbb{R}$ ein Körper, so ist $\mathbb{R}*=\mathbb{R} /(0)$ mit $*$ eine abelsche Gruppe.
|
\item Ist $\mathbb{R}$ ein Körper, so ist $\mathbb{R}*=\mathbb{R} /(0)$ mit $*$ eine abelsche Gruppe.
|
||||||
\item $\mathbb{Z}$ mit + und * ist ein kommutativer Ring mit $1 \not= 0$ aber kein Körper
|
\item $\mathbb{Z}$ mit + und * ist ein kommutativer Ring mit $1 \not= 0$ aber kein Körper
|
||||||
\item $\mathbb{Q}, \mathbb{C}, \mathbb{R}$ mit + und * ist ein Körper
|
\item $\mathbb{Q}, \mathbb{C}, \mathbb{R}$ mit + und * ist ein Körper
|
||||||
\end{itemize}
|
\end{itemize}
|
||||||
|
|
||||||
\paragraph{Konstruktion von rationalen Zahlen}
|
\paragraph{Konstruktion von rationalen Zahlen}
|
||||||
Definiere Operationen +,* auf $\mathbb{Q}$ wie folgt:
|
Definiere Operationen +,* auf $\mathbb{Q}$ wie folgt:
|
||||||
\begin{itemize}
|
\begin{itemize}
|
||||||
\item $\frac{a}{b}+\frac{c}{d} = \frac{ad+bc}{b*d}$ (wohldefiniert)
|
\item $\frac{a}{b}+\frac{c}{d} = \frac{ad+bc}{b*d}$ (wohldefiniert)
|
||||||
\item $\frac{a}{b}*\frac{c}{d} = \frac{a*c}{b*d}$
|
\item $\frac{a}{b}*\frac{c}{d} = \frac{a*c}{b*d}$
|
||||||
\end{itemize}
|
\end{itemize}
|
||||||
|
|
||||||
\paragraph{Ring der formalen Potenzreihe}
|
\paragraph{Ring der formalen Potenzreihe}
|
||||||
Sei k ein Körper. Eine Folge $(a_0,...,a:n)\in K^{\mathbb{N}}$ mit Einträgen aus K heißt formale Potenzreihe $K[[x]]$.
|
Sei k ein Körper. Eine Folge $(a_0,...,a:n)\in K^{\mathbb{N}}$ mit Einträgen aus K heißt formale Potenzreihe $K[[x]]$.
|
||||||
\begin{itemize}
|
\begin{itemize}
|
||||||
\item +: $(a_0,a_1,...) + (b_0,b_1,...) = (a_o+b_0, a_1+b_1, ...)$
|
\item +: $(a_0,a_1,...) + (b_0,b_1,...) = (a_o+b_0, a_1+b_1, ...)$
|
||||||
\item *: $(a_0,a_1,...) + (b_0,b_1,...) = (c_0, c_1,...)$ mit $c_K=\sum_{j=a}^{k} a_j*b_{k-j}$
|
\item *: $(a_0,a_1,...) + (b_0,b_1,...) = (c_0, c_1,...)$ mit $c_K=\sum_{j=a}^{k} a_j*b_{k-j}$
|
||||||
\end{itemize}
|
\end{itemize}
|
||||||
|
|
||||||
\section{Wahrscheinlichkeit}
|
\section{Wahrscheinlichkeit}
|
||||||
Ein Wahrscheinlichkeitsraum ist ein Paar $(\Omega, p)$ aus einer endlichen Menge $\Omega$ und einer Funktion $p:\Omega \rightarrow [0,1]\in \mathbb{R}$
|
Ein Wahrscheinlichkeitsraum ist ein Paar $(\Omega, p)$ aus einer endlichen Menge $\Omega$ und einer Funktion $p:\Omega \rightarrow [0,1]\in \mathbb{R}$
|
||||||
Es gilt für Ereignisse $A,B,A_1,...,A_k$:
|
Es gilt für Ereignisse $A,B,A_1,...,A_k$:
|
||||||
\begin{itemize}
|
\begin{itemize}
|
||||||
\item $A\subseteq B \rightarrow p(A)\leq p(B)$
|
\item $A\subseteq B \rightarrow p(A)\leq p(B)$
|
||||||
\item $p(A\cup B) \rightarrow p(A)+p(B)-p(A\cap B)$
|
\item $p(A\cup B) \rightarrow p(A)+p(B)-p(A\cap B)$
|
||||||
\item disjunkt($A_i \cap A_J=\emptyset$ für $i\not =j$) so gilt $p(A_1 \cup ... \cup A_k)= p(A_1)+...+p(A_k)$
|
\item disjunkt($A_i \cap A_J=\emptyset$ für $i\not =j$) so gilt $p(A_1 \cup ... \cup A_k)= p(A_1)+...+p(A_k)$
|
||||||
\item $p(\Omega / A):=$ Gegenereignis von $A=1-p(A)$
|
\item $p(\Omega / A):=$ Gegenereignis von $A=1-p(A)$
|
||||||
\item $p(A_1,...,A_k) \leq p(A_1)+...+p(A_k)$
|
\item $p(A_1,...,A_k) \leq p(A_1)+...+p(A_k)$
|
||||||
\item (stochastisch) unabhängig, falls $p(A\cap B) = p(A)*p(B)$
|
\item (stochastisch) unabhängig, falls $p(A\cap B) = p(A)*p(B)$
|
||||||
\end{itemize}
|
\end{itemize}
|
||||||
|
|
||||||
\paragraph{Bedingte Wahrscheinlichkeiten}
|
\paragraph{Bedingte Wahrscheinlichkeiten}
|
||||||
$A,B\subseteq \Omega$ für $p_B(A\cap B)= \frac{p(A\cap B)}{p(B)}:= p(A|B)$\
|
$A,B\subseteq \Omega$ für $p_B(A\cap B)= \frac{p(A\cap B)}{p(B)}:= p(A|B)$\
|
||||||
Erwartungswert $E(X) = \sum_{\omega \in \Omega} X(\omega)p(\omega)$\
|
Erwartungswert $E(X) = \sum_{\omega \in \Omega} X(\omega)p(\omega)$\
|
||||||
Linearität von E: $E(x+y)=E(x)+E(y)$ und $E(\alpha x)=\alpha E(x)$\
|
Linearität von E: $E(x+y)=E(x)+E(y)$ und $E(\alpha x)=\alpha E(x)$\
|
||||||
Varianz von X: $Var(X)=E((X^2)-E(X))^2)$\
|
Varianz von X: $Var(X)=E((X^2)-E(X))^2)$\
|
||||||
Covarianz: $Cov(X,Y)=E((X-E(X))*(Y-E(Y)))$\
|
Covarianz: $Cov(X,Y)=E((X-E(X))*(Y-E(Y)))$\
|
||||||
Verschiebungssatz: $Cov(X,Y)=E(X*Y)-E(X)*E(Y)$\
|
Verschiebungssatz: $Cov(X,Y)=E(X*Y)-E(X)*E(Y)$\
|
||||||
Bernoulliverteilt falls $p(X=1)=p$ und $p(X=0)=1-p$\
|
Bernoulliverteilt falls $p(X=1)=p$ und $p(X=0)=1-p$\
|
||||||
Bernoulli $P=\binom{n}{k}*p^k*(1-p)^{n-k}$\
|
Bernoulli $P=\binom{n}{k}*p^k*(1-p)^{n-k}$\
|
||||||
$\binom{N}{0}=(\emptyset), \binom{N}{n}={N}, \binom{n}{0}=\binom{n}{n}=1$ $\binom{n}{0}=1, \binom{n}{k}=\binom{n-1}{k-1}+\binom{n-1}{k}=\frac{n!}{k!(n-k)!}$
|
$\binom{N}{0}=(\emptyset), \binom{N}{n}={N}, \binom{n}{0}=\binom{n}{n}=1$ $\binom{n}{0}=1, \binom{n}{k}=\binom{n-1}{k-1}+\binom{n-1}{k}=\frac{n!}{k!(n-k)!}$
|
||||||
|
|
||||||
\paragraph{Hypergeometrische Verteilung}
|
\paragraph{Hypergeometrische Verteilung}
|
||||||
Beispiel: Urne mit zwei Sorten Kugeln; N Gesamtzahl der Kugeln, M Gesamtzahl Kugeln Sorte 1, N-M Gesamtzahl Kugeln Sorte 2, $n\leq N$ Anzahl Elemente einer Stichprobe. X Anzahl der Kugeln Sorte 1 in einer zufälligen n-elementigen Stichprobe.
|
Beispiel: Urne mit zwei Sorten Kugeln; N Gesamtzahl der Kugeln, M Gesamtzahl Kugeln Sorte 1, N-M Gesamtzahl Kugeln Sorte 2, $n\leq N$ Anzahl Elemente einer Stichprobe. X Anzahl der Kugeln Sorte 1 in einer zufälligen n-elementigen Stichprobe.
|
||||||
$p(X=k)=\frac{\binom{M}{k}\binom{N-M}{n-k}}{\binom{N}{n}}$\
|
$p(X=k)=\frac{\binom{M}{k}\binom{N-M}{n-k}}{\binom{N}{n}}$\
|
||||||
$E(X)=\sum_{x=0}^M \frac{\binom{M}{k}\binom{N-M}{n-k}}{\binom{N}{n}}=n*\frac{M}{N}$\
|
$E(X)=\sum_{x=0}^M \frac{\binom{M}{k}\binom{N-M}{n-k}}{\binom{N}{n}}=n*\frac{M}{N}$\
|
||||||
$Var(X)=E(X^2)-E(X)^2 = n*\frac{M}{N}(1-\frac{M}{N})\binom{N-n}{N-1}$
|
$Var(X)=E(X^2)-E(X)^2 = n*\frac{M}{N}(1-\frac{M}{N})\binom{N-n}{N-1}$
|
||||||
|
|
||||||
\section{Elementare Graphentheorie}
|
\section{Elementare Graphentheorie}
|
||||||
$G=(V,E)$ heißt Graph mit Eckenmenge $V(G)=V$ und Kantenmenge $E(G)=E\subseteq {{x,y}:x\not=y \in V}$.\
|
$G=(V,E)$ heißt Graph mit Eckenmenge $V(G)=V$ und Kantenmenge $E(G)=E\subseteq {{x,y}:x\not=y \in V}$.\
|
||||||
Für $(a,b)\in V(G)$ heißt $d_G(a,b)=min(l: \text{ es gibt einen a,b-Weg der Länge l} )$ Abstand von a nach b.\
|
Für $(a,b)\in V(G)$ heißt $d_G(a,b)=min(l: \text{ es gibt einen a,b-Weg der Länge l} )$ Abstand von a nach b.\
|
||||||
G heißt zusammenhängend, wenn G höchstens eine Komponente besitzt.
|
G heißt zusammenhängend, wenn G höchstens eine Komponente besitzt.
|
||||||
\begin{itemize}
|
\begin{itemize}
|
||||||
\item $d_G(x,y)=0 \leftrightarrow x=y$
|
\item $d_G(x,y)=0 \leftrightarrow x=y$
|
||||||
\item $d_G(x,y)=d_G(y,x)$
|
\item $d_G(x,y)=d_G(y,x)$
|
||||||
\item $d_G(x,z)\leq d_G(x,y) + d_G(y,z))$
|
\item $d_G(x,z)\leq d_G(x,y) + d_G(y,z))$
|
||||||
\end{itemize}
|
\end{itemize}
|
||||||
|
|
||||||
Ein Graph ist ein Baum wenn "G ist minimal zusammenhängend und kreisfrei"
|
Ein Graph ist ein Baum wenn "G ist minimal zusammenhängend und kreisfrei"
|
||||||
\begin{itemize}
|
\begin{itemize}
|
||||||
\item G ist kreisfrei und zusammenhängend
|
\item G ist kreisfrei und zusammenhängend
|
||||||
\item G kreisfrei und $|E(G)|=|V(G)|-1$
|
\item G kreisfrei und $|E(G)|=|V(G)|-1$
|
||||||
\item G zusammenhängend und $|E(G)|=|V(G)|-1$
|
\item G zusammenhängend und $|E(G)|=|V(G)|-1$
|
||||||
\end{itemize}
|
\end{itemize}
|
||||||
Breitensuchbaum von G falls $d_F(z,x)=d_G(z,x)$ f.a. $z\in V(G)$.\
|
Breitensuchbaum von G falls $d_F(z,x)=d_G(z,x)$ f.a. $z\in V(G)$.\
|
||||||
Tiefensuchbaum von G falls für jede Kante zy gilt: z liegt auf dem y,x-Weg in T oder y liegt auf dem z,t-Weg in T.
|
Tiefensuchbaum von G falls für jede Kante zy gilt: z liegt auf dem y,x-Weg in T oder y liegt auf dem z,t-Weg in T.
|
||||||
|
|
||||||
\paragraph{Spannbäume minimaler Gewichte}
|
\paragraph{Spannbäume minimaler Gewichte}
|
||||||
Sei G zuständiger Graph, $\omega:E(G)\rightarrow \mathbb{R}$; Setze $F=\emptyset$. Solange es eine Kante $e\in E(G)/F$ gibt so, dass $F \vee (e)$ kreisfrei ist, wähle e mit minimalem Gewicht $\omega(e)$, setzte $F=F\vee {e}$, iterieren. Das Verfahren endet mit einem Spannbaum $T=G(F)$ minimalen Gewichts.
|
Sei G zuständiger Graph, $\omega:E(G)\rightarrow \mathbb{R}$; Setze $F=\emptyset$. Solange es eine Kante $e\in E(G)/F$ gibt so, dass $F \vee (e)$ kreisfrei ist, wähle e mit minimalem Gewicht $\omega(e)$, setzte $F=F\vee {e}$, iterieren. Das Verfahren endet mit einem Spannbaum $T=G(F)$ minimalen Gewichts.
|
||||||
|
|
||||||
\paragraph{Das Traveling Salesman Problem}
|
\paragraph{Das Traveling Salesman Problem}
|
||||||
Konstruiere eine Folge$x_0,...,x_m$ mit der Eigenschaft, dass jede Kante von T genau zweimal zum Übergang benutzt wird, d.h. zu $e\in E(T)$ existieren $i\not = j$ mit $e=x_i x_{i+1}$ und $e=x_j x_{j+1}$ und zu jedem k existieren $e\in E(T)$ mit $e=x_k x_{k+1}$. Das Gewicht dieser Folge sei $\sum \omega(x_i x_{i+1})= 2\omega(T)$. Eliminiere Mehrfachnennungen in der Folge. Durch iteration erhält man einen aufspannenden Kreis mit $\omega(X) \leq 2 \omega(T)$.
|
Konstruiere eine Folge$x_0,...,x_m$ mit der Eigenschaft, dass jede Kante von T genau zweimal zum Übergang benutzt wird, d.h. zu $e\in E(T)$ existieren $i\not = j$ mit $e=x_i x_{i+1}$ und $e=x_j x_{j+1}$ und zu jedem k existieren $e\in E(T)$ mit $e=x_k x_{k+1}$. Das Gewicht dieser Folge sei $\sum \omega(x_i x_{i+1})= 2\omega(T)$. Eliminiere Mehrfachnennungen in der Folge. Durch iteration erhält man einen aufspannenden Kreis mit $\omega(X) \leq 2 \omega(T)$.
|
||||||
|
|
||||||
\paragraph{Färbung \& bipartit}
|
\paragraph{Färbung \& bipartit}
|
||||||
Eine Funktion $f:V(G)\rightarrow C$ mit $|C|\leq k$ heißt k-Färbung, falls $f(x)\not = f(y)$ für $xy\in E(G)$.
|
Eine Funktion $f:V(G)\rightarrow C$ mit $|C|\leq k$ heißt k-Färbung, falls $f(x)\not = f(y)$ für $xy\in E(G)$.
|
||||||
Ein Graph heißt bipartit mit den Klassen A,B falls $(x\in A \wedge y\in B)\vee (x\in B \wedge y\in A)$.
|
Ein Graph heißt bipartit mit den Klassen A,B falls $(x\in A \wedge y\in B)\vee (x\in B \wedge y\in A)$.
|
||||||
Mit Bipartitheit gilt G hat ein Matching von A $\leftrightarrow |N_G(X)|\leq |X|$ für alle $X\subseteq A$.
|
Mit Bipartitheit gilt G hat ein Matching von A $\leftrightarrow |N_G(X)|\leq |X|$ für alle $X\subseteq A$.
|
||||||
|
|
||||||
\end{multicols}
|
\end{multicols}
|
||||||
\end{document}
|
\end{document}
|
File diff suppressed because it is too large
Load Diff
@ -1,232 +1,232 @@
|
|||||||
---
|
---
|
||||||
title: Neurobiologische Informationsverarbeitung
|
title: Neurobiologische Informationsverarbeitung
|
||||||
---
|
---
|
||||||
|
|
||||||
| | hormonal | nerval |
|
| | hormonal | nerval |
|
||||||
| -- | -- | -- |
|
| -- | -- | -- |
|
||||||
| Informations Träger | chem. Substanz = Hormon | Potentialunterschied mit max 130 m/s, Leiter 2.Ordnung (Ionen) |
|
| Informations Träger | chem. Substanz = Hormon | Potentialunterschied mit max 130 m/s, Leiter 2.Ordnung (Ionen) |
|
||||||
| Transport | Blut | in abgegrenzten Nervenbahnen |
|
| Transport | Blut | in abgegrenzten Nervenbahnen |
|
||||||
| Einfluss | diffus, auf viele Empfänger gleichzeitig, Selektion durch Empfindlichkeit (broadcasting) | zu bestimmten genetisch bed. Empfängerzellen |
|
| Einfluss | diffus, auf viele Empfänger gleichzeitig, Selektion durch Empfindlichkeit (broadcasting) | zu bestimmten genetisch bed. Empfängerzellen |
|
||||||
| Natur der Signale | sehr spezifisch, nur eine bestimmte Information wird vermittelt (Wachstumshormon) | unspezifisch, Spezialität entsteht durch Transport in def. Bahnen (Seh-/Hörbahn) |
|
| Natur der Signale | sehr spezifisch, nur eine bestimmte Information wird vermittelt (Wachstumshormon) | unspezifisch, Spezialität entsteht durch Transport in def. Bahnen (Seh-/Hörbahn) |
|
||||||
|
|
||||||
# Rezeptoren (Sinneszellen)
|
# Rezeptoren (Sinneszellen)
|
||||||
Definition: Zelle, die zur Perzeption von Reizen und zur Weiterleitung der Reizinformation befähigt ist. Sie liefert Informationen über den physikalisch-chemischen Zustand der Umwelt.
|
Definition: Zelle, die zur Perzeption von Reizen und zur Weiterleitung der Reizinformation befähigt ist. Sie liefert Informationen über den physikalisch-chemischen Zustand der Umwelt.
|
||||||
|
|
||||||
Sinneszelle = Spezifiziert Nervenzelle
|
Sinneszelle = Spezifiziert Nervenzelle
|
||||||
- primäre Sinneszelle (mit eigenem Axon)
|
- primäre Sinneszelle (mit eigenem Axon)
|
||||||
- sekundäre Sinneszelle (ohne eigenes Axon)
|
- sekundäre Sinneszelle (ohne eigenes Axon)
|
||||||
|
|
||||||
# On/Off-Zentrum Nerven
|
# On/Off-Zentrum Nerven
|
||||||
|
|
||||||
!TODO
|
!TODO
|
||||||
|
|
||||||
# Def: Rezeptives Feld
|
# Def: Rezeptives Feld
|
||||||
Das rezeptive Feld ist eine Fläche mit Rezeptoren, die bei Reizung zur Reaktion eines Neurons führen => Erzeugung Generatorpotential
|
Das rezeptive Feld ist eine Fläche mit Rezeptoren, die bei Reizung zur Reaktion eines Neurons führen => Erzeugung Generatorpotential
|
||||||
|
|
||||||
# Def: Adaption
|
# Def: Adaption
|
||||||
Effekt der Verminderung der Rezeptorantwort bei konstantem Reiz
|
Effekt der Verminderung der Rezeptorantwort bei konstantem Reiz
|
||||||
- tonische Verhalten: gleichbleibende AP-Frequenz bei konst. Reiz
|
- tonische Verhalten: gleichbleibende AP-Frequenz bei konst. Reiz
|
||||||
- phasisches Verhalten: Starker Anstieg der AP-Frequenz bei Reizänderung
|
- phasisches Verhalten: Starker Anstieg der AP-Frequenz bei Reizänderung
|
||||||
- tonische Rezeptoren: nicht gewöhnend (Schmerz, Kälte)
|
- tonische Rezeptoren: nicht gewöhnend (Schmerz, Kälte)
|
||||||
- phasische Rezeptoren: Tastsinn, Druckrezeptoren
|
- phasische Rezeptoren: Tastsinn, Druckrezeptoren
|
||||||
|
|
||||||
# Geschmacksqualitäten
|
# Geschmacksqualitäten
|
||||||
süß, salzig, sauer, bitter, !!!!!!umami!!!!!
|
süß, salzig, sauer, bitter, !!!!!!umami!!!!!
|
||||||
|
|
||||||
# Neuron
|
# Neuron
|
||||||
kann Informationen leiten und verarbeiten (empfangen können auch andere)
|
kann Informationen leiten und verarbeiten (empfangen können auch andere)
|
||||||
- Dendriten: Hauptansatz für Synapsen, räumliche und Zeitliche Summation
|
- Dendriten: Hauptansatz für Synapsen, räumliche und Zeitliche Summation
|
||||||
- räumlich: Ankommende Potentiale verschiedener Synapsen
|
- räumlich: Ankommende Potentiale verschiedener Synapsen
|
||||||
- zeitlich: Nacheinander ankommende Potentiale an einer Synapse
|
- zeitlich: Nacheinander ankommende Potentiale an einer Synapse
|
||||||
- Soma: Synapsen am Soma meist hemmend
|
- Soma: Synapsen am Soma meist hemmend
|
||||||
- Axon: myelinisiert oder nicht-myelinisiert
|
- Axon: myelinisiert oder nicht-myelinisiert
|
||||||
|
|
||||||
# Synapsen
|
# Synapsen
|
||||||
chemisch <=> elektrisch (= gap junctions)\
|
chemisch <=> elektrisch (= gap junctions)\
|
||||||
- elektrisch:
|
- elektrisch:
|
||||||
- sehr schnell, z.B. Herzmuskelzellen
|
- sehr schnell, z.B. Herzmuskelzellen
|
||||||
- kleiner als chemisch
|
- kleiner als chemisch
|
||||||
- stammgeschichtlich älter
|
- stammgeschichtlich älter
|
||||||
- dienen auch anderem Stoffaustausch
|
- dienen auch anderem Stoffaustausch
|
||||||
- chemisch:
|
- chemisch:
|
||||||
- keine unmittelbare Weiterleitung des Aktionspotentials an einer Synapse (mehrere müssen gleichzeitig aktiv sein)
|
- keine unmittelbare Weiterleitung des Aktionspotentials an einer Synapse (mehrere müssen gleichzeitig aktiv sein)
|
||||||
- unidirektional
|
- unidirektional
|
||||||
- Verzögerung
|
- Verzögerung
|
||||||
- Blockierbar durch chem. Substanzen
|
- Blockierbar durch chem. Substanzen
|
||||||
|
|
||||||
# Gliazellen
|
# Gliazellen
|
||||||
- Astrozyten (Makroglia): Regulierung der verschiedenen Substanzkonzentrationen (z.B. Transmitterkonzentration), Zwischenspeicher, Versorgung der Nervenzellen
|
- Astrozyten (Makroglia): Regulierung der verschiedenen Substanzkonzentrationen (z.B. Transmitterkonzentration), Zwischenspeicher, Versorgung der Nervenzellen
|
||||||
- Oligodentrozyten (Makroglia): Bilden Myelin im Zentralnervensystem (in der peripherie schwammscher Zellen)
|
- Oligodentrozyten (Makroglia): Bilden Myelin im Zentralnervensystem (in der peripherie schwammscher Zellen)
|
||||||
- Microglis:
|
- Microglis:
|
||||||
- wandeln sich nach Hirnverletzung zu Rekrophagen (Fresszellen) -> Abbau abgestorbener Bestandteile durch Produktion einer Mydroxilgruppe
|
- wandeln sich nach Hirnverletzung zu Rekrophagen (Fresszellen) -> Abbau abgestorbener Bestandteile durch Produktion einer Mydroxilgruppe
|
||||||
- Leitgewebe bei Hinentwicklung
|
- Leitgewebe bei Hinentwicklung
|
||||||
- Starke Verzweigung zur Überwachung
|
- Starke Verzweigung zur Überwachung
|
||||||
|
|
||||||
|
|
||||||
# Entstehung Membranpotential
|
# Entstehung Membranpotential
|
||||||
Ruhepotential: ~70-90mV (Zellinneres negativ)\
|
Ruhepotential: ~70-90mV (Zellinneres negativ)\
|
||||||
1. Diffusionspotential - passiv
|
1. Diffusionspotential - passiv
|
||||||
- Im Ruhezustand Membran permeabel für K⁺
|
- Im Ruhezustand Membran permeabel für K⁺
|
||||||
- Gleichgewicht aus Konzentrationsgradient und Ladungsgradient
|
- Gleichgewicht aus Konzentrationsgradient und Ladungsgradient
|
||||||
|
|
||||||
!TODO zeichnung
|
!TODO zeichnung
|
||||||
|
|
||||||
|
|
||||||
2. Ionenpumpen - aktiv
|
2. Ionenpumpen - aktiv
|
||||||
- Na⁺ K⁺ Pumpen
|
- Na⁺ K⁺ Pumpen
|
||||||
- 3Na⁺ aus der Zelle, 2K⁺ in die Zelle, jeweils gegen den Konzentrationsgrad, Verbrauch von 1 ATP zu ADP+P
|
- 3Na⁺ aus der Zelle, 2K⁺ in die Zelle, jeweils gegen den Konzentrationsgrad, Verbrauch von 1 ATP zu ADP+P
|
||||||
- Das Ruhepotential wird aktiv aufrechterhalten -> Life-Zero-System
|
- Das Ruhepotential wird aktiv aufrechterhalten -> Life-Zero-System
|
||||||
|
|
||||||
# Potentialänderung
|
# Potentialänderung
|
||||||
- Depolarisation: Verminderung des Aktionspotentials (positiver) (Erregung, Excitation)
|
- Depolarisation: Verminderung des Aktionspotentials (positiver) (Erregung, Excitation)
|
||||||
- Hyperpolarisation: Erhöhung des Aktionspotetials (negativer) (Hemmung, Inhibition)
|
- Hyperpolarisation: Erhöhung des Aktionspotetials (negativer) (Hemmung, Inhibition)
|
||||||
|
|
||||||
Bei Erregung steigt Permeabilität für Na+ an; E_{Na⁺} angestrebt => +55mV
|
Bei Erregung steigt Permeabilität für Na+ an; E_{Na⁺} angestrebt => +55mV
|
||||||
|
|
||||||
# gradierte Potential Änderung
|
# gradierte Potential Änderung
|
||||||
- depolarisierender Reiz erhöht Permeabilität für K⁺, Na⁺, Cl⁻
|
- depolarisierender Reiz erhöht Permeabilität für K⁺, Na⁺, Cl⁻
|
||||||
- Na+ größer Antrieb nach innen aber Ionenpumpen fordern Na⁺ nach außen, solange Schranke nicht überschritten
|
- Na+ größer Antrieb nach innen aber Ionenpumpen fordern Na⁺ nach außen, solange Schranke nicht überschritten
|
||||||
|
|
||||||
# nicht gradierte potential Änderung
|
# nicht gradierte potential Änderung
|
||||||
- einige Membranstrukturen reagieren auf Reiz über der Schwelle mit nicht abgestelltem Potentialsprung => AP für 1ms
|
- einige Membranstrukturen reagieren auf Reiz über der Schwelle mit nicht abgestelltem Potentialsprung => AP für 1ms
|
||||||
- Axome, Muskelfasern, Drüsen = konduktive Membran
|
- Axome, Muskelfasern, Drüsen = konduktive Membran
|
||||||
- "Alles oder nichts"-Gesetz: Bei Überschreitung der Schwelle AP gleicher Form und Größe, Lawineneffekt des Einstroms von Na⁺, wird gebremst von Leitfähigkeitserhöhung von K⁺ (Ausstrom)
|
- "Alles oder nichts"-Gesetz: Bei Überschreitung der Schwelle AP gleicher Form und Größe, Lawineneffekt des Einstroms von Na⁺, wird gebremst von Leitfähigkeitserhöhung von K⁺ (Ausstrom)
|
||||||
|
|
||||||
Bedingung für AP: g_Na⁺ > g_K⁺
|
Bedingung für AP: g_Na⁺ > g_K⁺
|
||||||
|
|
||||||
# Adaption
|
# Adaption
|
||||||
Abnahme der Spikefrequenz bei konst. Repolarisation
|
Abnahme der Spikefrequenz bei konst. Repolarisation
|
||||||
- ZNS: sehr schnelle Adaption, oft nur ein AP
|
- ZNS: sehr schnelle Adaption, oft nur ein AP
|
||||||
- Peripherie: mehrere AP
|
- Peripherie: mehrere AP
|
||||||
|
|
||||||
# Akkomodation
|
# Akkomodation
|
||||||
Ausbleiben eines AP bei sehr langsam ansteigender Depolarisation. Na⁺ Kanäle werden inaktiv bevor g_Na⁺ > g_K⁺
|
Ausbleiben eines AP bei sehr langsam ansteigender Depolarisation. Na⁺ Kanäle werden inaktiv bevor g_Na⁺ > g_K⁺
|
||||||
|
|
||||||
# Elektrotonische Weiterleitung
|
# Elektrotonische Weiterleitung
|
||||||
passiv, mit Dekrement
|
passiv, mit Dekrement
|
||||||
- Verlust abhängig von Wiederstand
|
- Verlust abhängig von Wiederstand
|
||||||
- Innen: 20-200 Ohm-cm
|
- Innen: 20-200 Ohm-cm
|
||||||
- Außen: 1,5-3x geringer
|
- Außen: 1,5-3x geringer
|
||||||
- Membran: 10¹⁰ Ohm-cm
|
- Membran: 10¹⁰ Ohm-cm
|
||||||
- spezifischer Widerstand: !TODO!!!!!!!!!!!!!!!!!!!!!!!!!!!!!
|
- spezifischer Widerstand: !TODO!!!!!!!!!!!!!!!!!!!!!!!!!!!!!
|
||||||
|
|
||||||
- Membran verhält sich wie Kondensator => bei Ausbreitung des Potentials muss der Kondensator ungeladen werden -> Zeitkonstante $\tau = R_m * C_m$
|
- Membran verhält sich wie Kondensator => bei Ausbreitung des Potentials muss der Kondensator ungeladen werden -> Zeitkonstante $\tau = R_m * C_m$
|
||||||
- Dendriten (nur elektrotonische Ausbreitung, hohe Na+ Kanäle) werden zur Peripherie dünner, R_i steigt, \lambda sinkt
|
- Dendriten (nur elektrotonische Ausbreitung, hohe Na+ Kanäle) werden zur Peripherie dünner, R_i steigt, \lambda sinkt
|
||||||
- Kabeltheorie nach Rall: Einteilung in Kompartimente mit gleichem \lambda
|
- Kabeltheorie nach Rall: Einteilung in Kompartimente mit gleichem \lambda
|
||||||
|
|
||||||
# Weiterleitung von APs
|
# Weiterleitung von APs
|
||||||
- konduktile Leitung ohne Dekrement
|
- konduktile Leitung ohne Dekrement
|
||||||
- An jeder Membranstelle neuer Erregungsvorgang mit alles oder nichts Prinzip
|
- An jeder Membranstelle neuer Erregungsvorgang mit alles oder nichts Prinzip
|
||||||
- Ausbreitung durch Refraktärzeit unidirektional von Reizort weg
|
- Ausbreitung durch Refraktärzeit unidirektional von Reizort weg
|
||||||
|
|
||||||
Saltatorische Erregungsleitung: erleichterte Auslösung eines AP an den ranvierschen Schnürringen, Potential "springt" von Ring zu Ring => Raumeinsparung, Geschwindigkeitserhöhung
|
Saltatorische Erregungsleitung: erleichterte Auslösung eines AP an den ranvierschen Schnürringen, Potential "springt" von Ring zu Ring => Raumeinsparung, Geschwindigkeitserhöhung
|
||||||
|
|
||||||
# Weiterleitung an Synapsen
|
# Weiterleitung an Synapsen
|
||||||
- Na⁺ Kanäle unterliegen keiner Deaktivierung, solange aktiv wie Transmitter vorhanden ist
|
- Na⁺ Kanäle unterliegen keiner Deaktivierung, solange aktiv wie Transmitter vorhanden ist
|
||||||
- Second Messenger Systeme: längerfristige Wirkung
|
- Second Messenger Systeme: längerfristige Wirkung
|
||||||
|
|
||||||
## Ableitung
|
## Ableitung
|
||||||
1. AP an Präsynapse
|
1. AP an Präsynapse
|
||||||
2. Ca²⁺ strömt in die Zelle -> Vesikel zu präsynaptischer Membran
|
2. Ca²⁺ strömt in die Zelle -> Vesikel zu präsynaptischer Membran
|
||||||
3. Transmitterfreisetzung ~ AP-Folge
|
3. Transmitterfreisetzung ~ AP-Folge
|
||||||
4. Diffusion durch den Spalt
|
4. Diffusion durch den Spalt
|
||||||
5. Wirkung des Transmitters auf Rezeptor (Na⁺ Kanäle) der postsynaptischen Membran
|
5. Wirkung des Transmitters auf Rezeptor (Na⁺ Kanäle) der postsynaptischen Membran
|
||||||
6. Permeabilitätsänderung in der postsynaptischen Membran
|
6. Permeabilitätsänderung in der postsynaptischen Membran
|
||||||
- Na⁺, K⁺: EPSP
|
- Na⁺, K⁺: EPSP
|
||||||
- K⁺, CL⁻: IPSP
|
- K⁺, CL⁻: IPSP
|
||||||
7. Weiterleitung EPSP/IPSP über elektronische Leitung entlang Dendrit
|
7. Weiterleitung EPSP/IPSP über elektronische Leitung entlang Dendrit
|
||||||
8. Inaktivierung und Recykling des TP
|
8. Inaktivierung und Recykling des TP
|
||||||
|
|
||||||
# Beeinflussung von Synapsen
|
# Beeinflussung von Synapsen
|
||||||
- Agomisten: gleiche Wirkung wie Transmitter, aber veränderte Eigenschaften (z.B. kein second-messenger Effekt)
|
- Agomisten: gleiche Wirkung wie Transmitter, aber veränderte Eigenschaften (z.B. kein second-messenger Effekt)
|
||||||
- partielle Agomisten: Bindung an Rezeptor aber nur geringe Leitfähigkeitsänderung
|
- partielle Agomisten: Bindung an Rezeptor aber nur geringe Leitfähigkeitsänderung
|
||||||
- Antagomisten: Bindug an Rezeptor (Ionenkanal) ohne Leitfähigkeitsänderung
|
- Antagomisten: Bindug an Rezeptor (Ionenkanal) ohne Leitfähigkeitsänderung
|
||||||
|
|
||||||
# Interaktion von Synapsen
|
# Interaktion von Synapsen
|
||||||
- räumliche + zeitliche Integration
|
- räumliche + zeitliche Integration
|
||||||
- räumlich: EPSP/IPSP verschiedener Synapsen, die z.B. Dendritenbaum ansetzten werden an der postsynaptischen Membran addiert
|
- räumlich: EPSP/IPSP verschiedener Synapsen, die z.B. Dendritenbaum ansetzten werden an der postsynaptischen Membran addiert
|
||||||
- zeitlich: die von einer oder mehreren Präsynapsen kurz nacheinander eingehenden Erregungen führen in der postsynaptischen Zelle zu EPSP/IPSP die addiert werden
|
- zeitlich: die von einer oder mehreren Präsynapsen kurz nacheinander eingehenden Erregungen führen in der postsynaptischen Zelle zu EPSP/IPSP die addiert werden
|
||||||
- prä- und postsynaptische Hemmung
|
- prä- und postsynaptische Hemmung
|
||||||
- prä: Synapse: eig. aktiv -> wird gehemmt
|
- prä: Synapse: eig. aktiv -> wird gehemmt
|
||||||
- hemmende Synapse ansonsten
|
- hemmende Synapse ansonsten
|
||||||
- Bahnung: mehrere Synapsen an einem Dendriten; alle gleichzeitig aktiv, fehlt aber ein Dendrit => kein AP = Synapse bahnt Eingang der anderen
|
- Bahnung: mehrere Synapsen an einem Dendriten; alle gleichzeitig aktiv, fehlt aber ein Dendrit => kein AP = Synapse bahnt Eingang der anderen
|
||||||
|
|
||||||
# Veränderung der Effektivität von Synapsen
|
# Veränderung der Effektivität von Synapsen
|
||||||
- tetanische Potenzierung:
|
- tetanische Potenzierung:
|
||||||
- Aktivierung einer Präsynaptische mit Reizserien führt zu einem zunehmend vergrößertem EPSP (syn. Potenzierung), der auch nach längeren Reizserien über alle Enden hinaus festbestehen kann (posttetamische Pot.) (Kurzzeitgedächtnis)
|
- Aktivierung einer Präsynaptische mit Reizserien führt zu einem zunehmend vergrößertem EPSP (syn. Potenzierung), der auch nach längeren Reizserien über alle Enden hinaus festbestehen kann (posttetamische Pot.) (Kurzzeitgedächtnis)
|
||||||
- Langzeitpotenzierung:
|
- Langzeitpotenzierung:
|
||||||
- Strukturelle Anpassung während des Lernens
|
- Strukturelle Anpassung während des Lernens
|
||||||
- Prozess besteht auf Wandlungsfähigkeit der Dornen: durch Formänderung, Ab-und Aufbau werden Verb. zu reaktives Axonen gelöst und zu aktiven Fasern hergestellt
|
- Prozess besteht auf Wandlungsfähigkeit der Dornen: durch Formänderung, Ab-und Aufbau werden Verb. zu reaktives Axonen gelöst und zu aktiven Fasern hergestellt
|
||||||
- heterosynaptische Potenzierung
|
- heterosynaptische Potenzierung
|
||||||
- !TODO!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!
|
- !TODO!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!
|
||||||
|
|
||||||
# Neuronale Verschaltungsprinzipien
|
# Neuronale Verschaltungsprinzipien
|
||||||
## Divergenz & Konvergenz
|
## Divergenz & Konvergenz
|
||||||
- Divergenz: Zur Überschreitung der Schwelle ist ein erregender Eingang nötig
|
- Divergenz: Zur Überschreitung der Schwelle ist ein erregender Eingang nötig
|
||||||
- Konvergenz: Zur Überschreitung der Schwelle sind drei erregende Eingänge nötig
|
- Konvergenz: Zur Überschreitung der Schwelle sind drei erregende Eingänge nötig
|
||||||
- Divergenz und Konvergenz: gleiche Struktur, Umschaltung zwischen D. und K. über Zentralnervöse Vorgänge
|
- Divergenz und Konvergenz: gleiche Struktur, Umschaltung zwischen D. und K. über Zentralnervöse Vorgänge
|
||||||
|
|
||||||
## Neuronale Erregungskreis
|
## Neuronale Erregungskreis
|
||||||
funktionierende Einheit von miteinander verbundenen Neuronen, die sich in ihrer Aktivität gegenseitig beeinflussen
|
funktionierende Einheit von miteinander verbundenen Neuronen, die sich in ihrer Aktivität gegenseitig beeinflussen
|
||||||
|
|
||||||
## neuronale Hemmung
|
## neuronale Hemmung
|
||||||
- Schutz vor Informationsüberflutung
|
- Schutz vor Informationsüberflutung
|
||||||
- prä- und postsynaptische Hemmung
|
- prä- und postsynaptische Hemmung
|
||||||
- Vorwärtshemmung !TODO
|
- Vorwärtshemmung !TODO
|
||||||
- Rückwärtshemmung !TODO
|
- Rückwärtshemmung !TODO
|
||||||
- Streuung !TODO
|
- Streuung !TODO
|
||||||
- laterale Inhibition: Verschaltungsprinzip von Neuronen, bei denm Freiverschaltete Neuronen benachbarte Neuronen hemmen => Kontrastverstärkung
|
- laterale Inhibition: Verschaltungsprinzip von Neuronen, bei denm Freiverschaltete Neuronen benachbarte Neuronen hemmen => Kontrastverstärkung
|
||||||
- TODO
|
- TODO
|
||||||
- Änderung der Hemmung mit zunehmendem Abstand von benachbarten Neuron -> rezeptive Felder
|
- Änderung der Hemmung mit zunehmendem Abstand von benachbarten Neuron -> rezeptive Felder
|
||||||
|
|
||||||
# Mexican Hat
|
# Mexican Hat
|
||||||
|
|
||||||
!TODO zeichnung
|
!TODO zeichnung
|
||||||
|
|
||||||
Übertragungsfunktion: $g(i)=m_1 e^{\frac{-r²}{B_1²} } - m_2 e^{\frac{-r²}{B_2²}}$
|
Übertragungsfunktion: $g(i)=m_1 e^{\frac{-r²}{B_1²} } - m_2 e^{\frac{-r²}{B_2²}}$
|
||||||
r: Radius RF; m: max Amplitude; B: breite Gauß; $B_2=k*B_1$
|
r: Radius RF; m: max Amplitude; B: breite Gauß; $B_2=k*B_1$
|
||||||
|
|
||||||
| Pass | Beschreibung | Vorraussetzung |
|
| Pass | Beschreibung | Vorraussetzung |
|
||||||
| -- | -- | -- |
|
| -- | -- | -- |
|
||||||
| Tiefpass | Grenzfrequenz umso höher je kleiner B¹ | $m_2=0$ $m_1\not=0$ $B_1\not=0$ |
|
| Tiefpass | Grenzfrequenz umso höher je kleiner B¹ | $m_2=0$ $m_1\not=0$ $B_1\not=0$ |
|
||||||
| Hochpass | Grenzfrequenz umso höher je kleiner B² | $m_2\not=0$ $B_1\rightarrow 0$ $B_2\not=0$ |
|
| Hochpass | Grenzfrequenz umso höher je kleiner B² | $m_2\not=0$ $B_1\rightarrow 0$ $B_2\not=0$ |
|
||||||
| Bandpass | Mittelwertunterdrückung, On-Zentrum | $K>1$, $m_1>m_2$, $m_1B_1 = m_2B_2$ |
|
| Bandpass | Mittelwertunterdrückung, On-Zentrum | $K>1$, $m_1>m_2$, $m_1B_1 = m_2B_2$ |
|
||||||
| Bandpass | Off-Zentrum | $k>1$, §m_1< m_2$ |
|
| Bandpass | Off-Zentrum | $k>1$, §m_1< m_2$ |
|
||||||
|
|
||||||
$y_i=\sum_{j=1}^N K_{Sij}*x_j + \sum_{j=1}^N K_{Hij}*x_j$
|
$y_i=\sum_{j=1}^N K_{Sij}*x_j + \sum_{j=1}^N K_{Hij}*x_j$
|
||||||
$K_{Sij} \in [0,1]$ Streuung
|
$K_{Sij} \in [0,1]$ Streuung
|
||||||
$K_{Hij} \in [-1,1]$ Hemmung
|
$K_{Hij} \in [-1,1]$ Hemmung
|
||||||
|
|
||||||
# Neuronenmodelle
|
# Neuronenmodelle
|
||||||
## Statische Modelle
|
## Statische Modelle
|
||||||
### McCulloch & Pitts
|
### McCulloch & Pitts
|
||||||
$y=\sum_{j=1}^N \omega_j x_j -s = z$
|
$y=\sum_{j=1}^N \omega_j x_j -s = z$
|
||||||
kein Lernen, keine Erklärung für Fehlertoleranz
|
kein Lernen, keine Erklärung für Fehlertoleranz
|
||||||
|
|
||||||
### statisches Neuronenmodell
|
### statisches Neuronenmodell
|
||||||
$y=f(\sum_{j=1}^N \omega_jx_j -s) = f(z)$
|
$y=f(\sum_{j=1}^N \omega_jx_j -s) = f(z)$
|
||||||
Modellvereinfachung: Ratenmodell: Impulsfrequenz als analoge mittlere Feuerrate (keine Spikes)
|
Modellvereinfachung: Ratenmodell: Impulsfrequenz als analoge mittlere Feuerrate (keine Spikes)
|
||||||
|
|
||||||
## Dynamische Modelle
|
## Dynamische Modelle
|
||||||
Approximation der Gewichtsfunktion als Alpha-Funktion, Trägheitsverhalten realisiert.
|
Approximation der Gewichtsfunktion als Alpha-Funktion, Trägheitsverhalten realisiert.
|
||||||
Vereinfachung der Alphafunktion: Anstieg nicht wichtig, nur verzögerter Abfall eventuell mit Überlagerung
|
Vereinfachung der Alphafunktion: Anstieg nicht wichtig, nur verzögerter Abfall eventuell mit Überlagerung
|
||||||
$g(i)=\frac{t*e}{t_{peak}} e^{\frac{-t}{t_{peak}}} \Rightarrow g(i)=\frac{1}{\tau}e^{\frac{-t}{\tau}}$
|
$g(i)=\frac{t*e}{t_{peak}} e^{\frac{-t}{t_{peak}}} \Rightarrow g(i)=\frac{1}{\tau}e^{\frac{-t}{\tau}}$
|
||||||
|
|
||||||
## Integrate & Fire Modelle
|
## Integrate & Fire Modelle
|
||||||
Eingänge werden summiert, mit Schwelle verglichen und bei Überschreiten wird Spike erzeugt
|
Eingänge werden summiert, mit Schwelle verglichen und bei Überschreiten wird Spike erzeugt
|
||||||
- Zeit zwischen Stimulus und 1. Spike von Interesse
|
- Zeit zwischen Stimulus und 1. Spike von Interesse
|
||||||
- Phasenlage zwischen ............. und Hintergrund-Oszillation
|
- Phasenlage zwischen ............. und Hintergrund-Oszillation
|
||||||
- Korrelation/Synchronität: Spikes anderer Neuronen als Referenz
|
- Korrelation/Synchronität: Spikes anderer Neuronen als Referenz
|
||||||
|
|
||||||
# Lernen und Gedächtnis
|
# Lernen und Gedächtnis
|
||||||
## phyletisches Gedächtnis
|
## phyletisches Gedächtnis
|
||||||
Artgedächtnis, angeborenes, primär sensorische und motorische Bereiche der Hirnrinde, in grober Verschaltung des stammgeschichtlich älteren Teils schon bei der Geburt als Essenz der wichtigsten Erfahrungen angelegt - Extrakt der Anpassungsleistung der Art
|
Artgedächtnis, angeborenes, primär sensorische und motorische Bereiche der Hirnrinde, in grober Verschaltung des stammgeschichtlich älteren Teils schon bei der Geburt als Essenz der wichtigsten Erfahrungen angelegt - Extrakt der Anpassungsleistung der Art
|
||||||
|
|
||||||
## individuelles Gedächtnis
|
## individuelles Gedächtnis
|
||||||
Baut auf phyletischem Gedächtnis auf, Sitz im Assoziationscortex, evolutionär spätere, höhere Komplexität der Netzwerke, entwickelt sich während der ganzen Kindheit und auch noch bei Erwachsenen
|
Baut auf phyletischem Gedächtnis auf, Sitz im Assoziationscortex, evolutionär spätere, höhere Komplexität der Netzwerke, entwickelt sich während der ganzen Kindheit und auch noch bei Erwachsenen
|
||||||
|
|
||||||
## prozedurales Wissen
|
## prozedurales Wissen
|
||||||
Erwerb von Verhaltensweisen "gewusst wie" sensomotorische Intelligenz
|
Erwerb von Verhaltensweisen "gewusst wie" sensomotorische Intelligenz
|
||||||
|
|
||||||
## deklaratives Wissen
|
## deklaratives Wissen
|
||||||
Erwerb von Wissen "gewusst was" kognitive Intelligenz
|
Erwerb von Wissen "gewusst was" kognitive Intelligenz
|
1760
Neuroinformatik.md
1760
Neuroinformatik.md
File diff suppressed because it is too large
Load Diff
File diff suppressed because it is too large
Load Diff
77
README.md
77
README.md
@ -1,38 +1,39 @@
|
|||||||
# Informatik
|
# Informatik
|
||||||
Unterlagen zu Informatik Vorlesungen der TU Ilmenau
|
Unterlagen zu Informatik Vorlesungen der TU Ilmenau
|
||||||
> Kein Mensch kann Wissen besitzen. Wissen ist frei und muss weitergegeben werden
|
> Kein Mensch kann Wissen besitzen. Wissen ist frei und muss weitergegeben werden
|
||||||
|
|
||||||
bisher:
|
bisher:
|
||||||
- [Algorithmen und Datenstrukturen](Algorithmen%20und%20Datenstrukturen.md)
|
- [Algorithmen und Datenstrukturen](Algorithmen%20und%20Datenstrukturen.md)
|
||||||
- [Einführung in die Medizinische Informatik](Einführung%20in%20die%20Medizinische%20Informatik.md)
|
- [Einführung in die Medizinische Informatik](Einführung%20in%20die%20Medizinische%20Informatik.md)
|
||||||
- [Grundlagen und diskrete Strukturen](Grundlagen%20und%20Diskrete%20Strukturen.md)
|
- [Grundlagen und diskrete Strukturen](Grundlagen%20und%20Diskrete%20Strukturen.md)
|
||||||
- [GudS - Cheatsheet](Grundlagen%20und%20Diskrete%20Strukturen%20-%20Cheatsheet.pdf)
|
- [GudS - Cheatsheet](Grundlagen%20und%20Diskrete%20Strukturen%20-%20Cheatsheet.pdf)
|
||||||
- [GudS - Short Paper](Grundlagen%20und%20Diskrete%20Strukturen%20-%20short.pdf)
|
- [GudS - Short Paper](Grundlagen%20und%20Diskrete%20Strukturen%20-%20short.pdf)
|
||||||
- [Neurobiologische Informationsverarbeitung](Neurobiologische%20Informationsverarbeitung.md)
|
- [Neurobiologische Informationsverarbeitung](Neurobiologische%20Informationsverarbeitung.md)
|
||||||
- [Neuroinformatik](Neuroinformatik.md)
|
- [Neuroinformatik](Neuroinformatik.md)
|
||||||
- [Programmierparadigmen](Programmierparadigmen.md)
|
- [Programmierparadigmen](Programmierparadigmen.md)
|
||||||
- [Rechnerarchitekturen 1](Rechnerarchitekturen%201.md)
|
- [Rechnerarchitekturen 1](Rechnerarchitekturen%201.md)
|
||||||
- [Telematik 1](Telematik%201.md)
|
- [Stochastik](Stochastik.md)
|
||||||
- [Telematik Cheatsheet](Telematik1-cheatsheet.pdf)
|
- [Telematik 1](Telematik%201.md)
|
||||||
|
- [Telematik Cheatsheet](Telematik1-cheatsheet.pdf)
|
||||||
Keine Garantie auf Vollständigkeit/Korrektheit! Hilf uns Fehler zu korrigieren und noch weitere Fächer abzudecken.
|
|
||||||
|
Keine Garantie auf Vollständigkeit/Korrektheit! Hilf uns Fehler zu korrigieren und noch weitere Fächer abzudecken.
|
||||||
## Verwendung
|
|
||||||
Alle Dokumente werden in Markdown (bevorzugt) oder LaTex geschrieben. Bilder etc erhalten einen eigenen Ordner "Assets". Bei Fragen zu Markdown könnt ihr Google fragen, Cheatsheets lesen (da steht meistens alles drauf) oder im Notfall den Admin fragen.
|
## Verwendung
|
||||||
Dieses Repo ist zum Selbststudium und erlernen neuen Wissens gedacht. Kein Inhalt oder Teile dieses Repositories darf kommerziell verwendet werden. Es steht frei zu Teilen, Klonen und Mitzuarbeiten.
|
Alle Dokumente werden in Markdown (bevorzugt) oder LaTex geschrieben. Bilder etc erhalten einen eigenen Ordner "Assets". Bei Fragen zu Markdown könnt ihr Google fragen, Cheatsheets lesen (da steht meistens alles drauf) oder im Notfall den Admin fragen.
|
||||||
Wir freuen uns über jeden der mitmacht.
|
Dieses Repo ist zum Selbststudium und erlernen neuen Wissens gedacht. Kein Inhalt oder Teile dieses Repositories darf kommerziell verwendet werden. Es steht frei zu Teilen, Klonen und Mitzuarbeiten.
|
||||||
|
Wir freuen uns über jeden der mitmacht.
|
||||||
## Mitmachen
|
|
||||||
- Erstelle ein 'issue'. Gehe davor die offene 'issues' durch. (Oder überlege dir welches Fach noch fehlt)
|
## Mitmachen
|
||||||
- Klone das repository oder erstelle einen Fork: ```git clone https://github.com/wieerwill/Informatik.git```
|
- Erstelle ein 'issue'. Gehe davor die offene 'issues' durch. (Oder überlege dir welches Fach noch fehlt)
|
||||||
- Erstelle deinen eigenen feature branch: ```git checkout -b my-new-feature```
|
- Klone das repository oder erstelle einen Fork: ```git clone https://github.com/wieerwill/Informatik.git```
|
||||||
- Stelle deine Änderungen bereit: ```git commit -m "Add some feature"``` (in "" kommt dein Kommentar)
|
- Erstelle deinen eigenen feature branch: ```git checkout -b my-new-feature```
|
||||||
- Lade auf deinen Branch hoch: ```git push origin your-new-feature```
|
- Stelle deine Änderungen bereit: ```git commit -m "Add some feature"``` (in "" kommt dein Kommentar)
|
||||||
- Erstelle ein 'pull request' damit deine Änderungen in diesem Repository übernommen werden.
|
- Lade auf deinen Branch hoch: ```git push origin your-new-feature```
|
||||||
|
- Erstelle ein 'pull request' damit deine Änderungen in diesem Repository übernommen werden.
|
||||||
## Bild- und Textrechte
|
|
||||||
Der Inhalt aller Dokumente hier ist die Mitschrift aus besuchten Vorlesungen. Es werden keine Bücher kopiert oder anderweitig Copyright verletzt. Die Verletzung des Copyright oder anderer Rechte Dritte wird mit einem Ausschluss aus dem Repository gehandelt. Sollte Ihnen ein Verstoß auffallen geben Sie uns bitte umgehend bescheid, wir werden jedem Fall nachgehen.
|
## Bild- und Textrechte
|
||||||
Bilder werden zum Großteil von uns selbst erstellt oder unter ausführlicher Quellangabe verwendet.
|
Der Inhalt aller Dokumente hier ist die Mitschrift aus besuchten Vorlesungen. Es werden keine Bücher kopiert oder anderweitig Copyright verletzt. Die Verletzung des Copyright oder anderer Rechte Dritte wird mit einem Ausschluss aus dem Repository gehandelt. Sollte Ihnen ein Verstoß auffallen geben Sie uns bitte umgehend bescheid, wir werden jedem Fall nachgehen.
|
||||||
|
Bilder werden zum Großteil von uns selbst erstellt oder unter ausführlicher Quellangabe verwendet.
|
||||||
## Lizenz
|
|
||||||
Dieses Repository und sein Inhalt sind unter der GNU GENERAL PUBLIC LICENSE Version 3 veröffentlicht. Was das bedeutet könnt ihr [hier](LICENSE) nachlesen.
|
## Lizenz
|
||||||
|
Dieses Repository und sein Inhalt sind unter der GNU GENERAL PUBLIC LICENSE Version 3 veröffentlicht. Was das bedeutet könnt ihr [hier](LICENSE) nachlesen.
|
||||||
|
@ -1,156 +1,156 @@
|
|||||||
# Grundprinzipien
|
# Grundprinzipien
|
||||||
- Ein- und Ausgabe
|
- Ein- und Ausgabe
|
||||||
- Programmspeicher
|
- Programmspeicher
|
||||||
- Datenspeicher
|
- Datenspeicher
|
||||||
|
|
||||||
Unterschieden in:
|
Unterschieden in:
|
||||||
- Harvard Architektur: direkt mit Prozessor verbunden
|
- Harvard Architektur: direkt mit Prozessor verbunden
|
||||||
- Princeton-Architektur (von-Neumann-Architektur): über Systembus verbunden
|
- Princeton-Architektur (von-Neumann-Architektur): über Systembus verbunden
|
||||||
|
|
||||||
## Eigenschaften
|
## Eigenschaften
|
||||||
Fast alle der heute üblichen Rechner gehen auf folgende Eigenschaften zurück:
|
Fast alle der heute üblichen Rechner gehen auf folgende Eigenschaften zurück:
|
||||||
1. Die Rechenanlage besteht aus den Funktionseinheiten Speicher, Steuerwerk (engl. controller), dem Rechenwerk (engl. data path) und Ein-/Ausgabe-Einheiten.
|
1. Die Rechenanlage besteht aus den Funktionseinheiten Speicher, Steuerwerk (engl. controller), dem Rechenwerk (engl. data path) und Ein-/Ausgabe-Einheiten.
|
||||||
2. Die Struktur der Anlage ist unabhängig vom bearbeiteten Problem. Die Anlage ist speicherprogrammierbar.
|
2. Die Struktur der Anlage ist unabhängig vom bearbeiteten Problem. Die Anlage ist speicherprogrammierbar.
|
||||||
3. Der Speicher wird in Zellen gleicher Größe geteilt. Die Zellnummern heißen Adressen.
|
3. Der Speicher wird in Zellen gleicher Größe geteilt. Die Zellnummern heißen Adressen.
|
||||||
4. Das Programm besteht aus einer Folge von elementaren Befehlen, die in der Reihenfolge der Speicherung bearbeitet werden.
|
4. Das Programm besteht aus einer Folge von elementaren Befehlen, die in der Reihenfolge der Speicherung bearbeitet werden.
|
||||||
5. Abweichungen von der Reihenfolge sind mit (bedingten oder unbedingten) Sprungbefehlen möglich.
|
5. Abweichungen von der Reihenfolge sind mit (bedingten oder unbedingten) Sprungbefehlen möglich.
|
||||||
6. Es werden Folgen von Binärzeichen (nachfolgend Bitvektoren genannt) verwendet, um alle Größen darzustellen.
|
6. Es werden Folgen von Binärzeichen (nachfolgend Bitvektoren genannt) verwendet, um alle Größen darzustellen.
|
||||||
7. Die Bitvektoren erlauben keine explizite Angabe des repräsentierten Typs. Aus dem Kontext heraus muss stets klar sein, wie die Bitvektoren zu interpretieren sind.
|
7. Die Bitvektoren erlauben keine explizite Angabe des repräsentierten Typs. Aus dem Kontext heraus muss stets klar sein, wie die Bitvektoren zu interpretieren sind.
|
||||||
|
|
||||||
# Befehlssatz
|
# Befehlssatz
|
||||||
Adressierung ohne Speicherzugriff
|
Adressierung ohne Speicherzugriff
|
||||||
- Registeradressierung: ausschließlich Operanden aus & Ziele in Registern
|
- Registeradressierung: ausschließlich Operanden aus & Ziele in Registern
|
||||||
- Unmittelbare Adressierung, Direktoperanden, immediate addressing: Operanden sind Teil des Befehlsworts
|
- Unmittelbare Adressierung, Direktoperanden, immediate addressing: Operanden sind Teil des Befehlsworts
|
||||||
- Direkte Adressierung, absolute Adressierung: Adresse ist ausschließlich im Befehlswort enthalten
|
- Direkte Adressierung, absolute Adressierung: Adresse ist ausschließlich im Befehlswort enthalten
|
||||||
- Register-indirekte Adressierung: Adresse ist ausschließlich im Register enthalten
|
- Register-indirekte Adressierung: Adresse ist ausschließlich im Register enthalten
|
||||||
- Varianten: pre/post-increment/decrement zur Realisierung von Stapeloperationen
|
- Varianten: pre/post-increment/decrement zur Realisierung von Stapeloperationen
|
||||||
- Relative Adressierung, indizierte Adressierung, Basis-Adressierung: Adresse ergibt sich aus der Addition eines Registerinhalts und einer Konstanten im Befehl
|
- Relative Adressierung, indizierte Adressierung, Basis-Adressierung: Adresse ergibt sich aus der Addition eines Registerinhalts und einer Konstanten im Befehl
|
||||||
|
|
||||||
## n-Adressmaschinen
|
## n-Adressmaschinen
|
||||||
Klassifikation von Befehlssätzen bzw. Befehlen nach der Anzahl der Adressen bei 2-stelligen Arithmetik-Befehlen
|
Klassifikation von Befehlssätzen bzw. Befehlen nach der Anzahl der Adressen bei 2-stelligen Arithmetik-Befehlen
|
||||||
- 3-Adressmaschinen: Operanden und Ziel einer Operation werden explizit angegeben
|
- 3-Adressmaschinen: Operanden und Ziel einer Operation werden explizit angegeben
|
||||||
- 2-Adressmaschinen: Überschreiben eines Operanden mit dem Ergebnis
|
- 2-Adressmaschinen: Überschreiben eines Operanden mit dem Ergebnis
|
||||||
- 1 1⁄2-Adressmaschinen: wie 2-Adressmaschinen, nur unter Verwendung von Registern
|
- 1 1⁄2-Adressmaschinen: wie 2-Adressmaschinen, nur unter Verwendung von Registern
|
||||||
- 1-Adressmaschinen: Nutzung von nur 1 Register
|
- 1-Adressmaschinen: Nutzung von nur 1 Register
|
||||||
- 0-Adressmaschinen: Kellermaschinen
|
- 0-Adressmaschinen: Kellermaschinen
|
||||||
|
|
||||||
## Programmiermodelle, Instruction Set Architectures (ISAs)
|
## Programmiermodelle, Instruction Set Architectures (ISAs)
|
||||||
Klassifikation von Befehlssätzen nach der Gestaltung/Ausprägung der
|
Klassifikation von Befehlssätzen nach der Gestaltung/Ausprägung der
|
||||||
vorhandenen Maschinenbefehle
|
vorhandenen Maschinenbefehle
|
||||||
- CISC – Complex Instruction Set Computers
|
- CISC – Complex Instruction Set Computers
|
||||||
- Relativ kompakte Codierung von Programmen
|
- Relativ kompakte Codierung von Programmen
|
||||||
- Für jeden Befehl wurden mehrere Taktzyklen benötigt. Die Anzahl der Zyklen pro Befehl war groß
|
- Für jeden Befehl wurden mehrere Taktzyklen benötigt. Die Anzahl der Zyklen pro Befehl war groß
|
||||||
- (Mikro-) Programm zur Interpretation der Befehle nötig
|
- (Mikro-) Programm zur Interpretation der Befehle nötig
|
||||||
- Compiler konnten viele Befehle gar nicht nutzen
|
- Compiler konnten viele Befehle gar nicht nutzen
|
||||||
- RISC – Reduced Instruction Set Computers
|
- RISC – Reduced Instruction Set Computers
|
||||||
- Wenige, einfache Befehle
|
- Wenige, einfache Befehle
|
||||||
- Hohe Ausführungsgeschwindigkeit
|
- Hohe Ausführungsgeschwindigkeit
|
||||||
- durch kleine Anzahl von Taktzyklen pro Befehl
|
- durch kleine Anzahl von Taktzyklen pro Befehl
|
||||||
- durch Fließbandverarbeitung (siehe später)
|
- durch Fließbandverarbeitung (siehe später)
|
||||||
- Programmlaufzeit = Anzahl auszuführender Befehle * CPI-Wert * Dauer eines Taktzyklus
|
- Programmlaufzeit = Anzahl auszuführender Befehle * CPI-Wert * Dauer eines Taktzyklus
|
||||||
- Eigenschaften
|
- Eigenschaften
|
||||||
- feste Befehlswortlänge
|
- feste Befehlswortlänge
|
||||||
- LOAD/STORE-Architektur
|
- LOAD/STORE-Architektur
|
||||||
- einfache Adressierungsarten
|
- einfache Adressierungsarten
|
||||||
- „semantische Lücke“ zwischen Hochsprachen & Assemblerbefehlen durch Compiler überbrückt
|
- „semantische Lücke“ zwischen Hochsprachen & Assemblerbefehlen durch Compiler überbrückt
|
||||||
- statt aufwändiger Hardware zur Beseitigung von Besonderheiten (z.B. 16-Bit Konstanten) wird diese Aufgabe der Software übertragen
|
- statt aufwändiger Hardware zur Beseitigung von Besonderheiten (z.B. 16-Bit Konstanten) wird diese Aufgabe der Software übertragen
|
||||||
- rein in Hardware realisierbar, keine Mikroprogrammierung
|
- rein in Hardware realisierbar, keine Mikroprogrammierung
|
||||||
|
|
||||||
## Technologien zum Speichern von Daten
|
## Technologien zum Speichern von Daten
|
||||||
- Arten
|
- Arten
|
||||||
- **Modifikation von Strukturen**: Lochkarte, Schallplatte
|
- **Modifikation von Strukturen**: Lochkarte, Schallplatte
|
||||||
- **Rückkopplung**: Flip-Flops, SRAM
|
- **Rückkopplung**: Flip-Flops, SRAM
|
||||||
- **Elektrische Ladungen**: Kondensator, DRAM
|
- **Elektrische Ladungen**: Kondensator, DRAM
|
||||||
- **Magnetismus**: Magnetkernspeicher, Magnetband, Diskette, Festplatte
|
- **Magnetismus**: Magnetkernspeicher, Magnetband, Diskette, Festplatte
|
||||||
- **Optik**: Bar-Codes, CD-ROM, DVD
|
- **Optik**: Bar-Codes, CD-ROM, DVD
|
||||||
- Vergleichskriterien
|
- Vergleichskriterien
|
||||||
- Kapazität
|
- Kapazität
|
||||||
- Energiebedarf
|
- Energiebedarf
|
||||||
- Geschwindigkeit
|
- Geschwindigkeit
|
||||||
- Robustheit
|
- Robustheit
|
||||||
- Speicherdichte
|
- Speicherdichte
|
||||||
- Kosten
|
- Kosten
|
||||||
- Zugriffsmethoden
|
- Zugriffsmethoden
|
||||||
- Sequentieller Zugriff
|
- Sequentieller Zugriff
|
||||||
- Zugriffszeit ist abhängig vom Speicherort und vom vorherigen Zugriff
|
- Zugriffszeit ist abhängig vom Speicherort und vom vorherigen Zugriff
|
||||||
- Beispiele: Magnetbänder, Festplatten, CD-ROM, DVD, BluRay
|
- Beispiele: Magnetbänder, Festplatten, CD-ROM, DVD, BluRay
|
||||||
- Bei Plattenspeicher schneller Zugriff durch Überspringen von Spuren
|
- Bei Plattenspeicher schneller Zugriff durch Überspringen von Spuren
|
||||||
- Wahlfreier Zugriff
|
- Wahlfreier Zugriff
|
||||||
- Zugriffszeit ist unabhängig vom Speicherort und vom vorherigen Zugriff
|
- Zugriffszeit ist unabhängig vom Speicherort und vom vorherigen Zugriff
|
||||||
- Eindeutige Adresse identifiziert den Speicherort
|
- Eindeutige Adresse identifiziert den Speicherort
|
||||||
- RAM (Random Access Memory)
|
- RAM (Random Access Memory)
|
||||||
- Einteilung des Speichers in
|
- Einteilung des Speichers in
|
||||||
- Flüchtigen Speicher
|
- Flüchtigen Speicher
|
||||||
- Informationen gehen nach Ausschalten der Versorgungsspannung verloren!
|
- Informationen gehen nach Ausschalten der Versorgungsspannung verloren!
|
||||||
- Register innerhalb des Prozessors
|
- Register innerhalb des Prozessors
|
||||||
- Static RAM (SRAM) für Caches
|
- Static RAM (SRAM) für Caches
|
||||||
- Dynamic RAM (DRAM) für den Arbeitsspeicher
|
- Dynamic RAM (DRAM) für den Arbeitsspeicher
|
||||||
- Nichtflüchtige Speicher:
|
- Nichtflüchtige Speicher:
|
||||||
- Informationen bleiben auch ohne Versorgungsspannung über längere Zeit (typischerweise einige Jahre) erhalten!
|
- Informationen bleiben auch ohne Versorgungsspannung über längere Zeit (typischerweise einige Jahre) erhalten!
|
||||||
- Beispiele: Flash, Magnetspeicher (Festplatte, Disketten, Magnetbänder)
|
- Beispiele: Flash, Magnetspeicher (Festplatte, Disketten, Magnetbänder)
|
||||||
- Bei einem ROM (Read Only Memory) ist nur lesender Zugriff möglich
|
- Bei einem ROM (Read Only Memory) ist nur lesender Zugriff möglich
|
||||||
|
|
||||||
Zweierpotenzen
|
Zweierpotenzen
|
||||||
- 1 KibiByte = 1 KiB = 1024 Bytes = 2^10 Bytes
|
- 1 KibiByte = 1 KiB = 1024 Bytes = 2^10 Bytes
|
||||||
- 1 MebiByte = 1 MiB = 1024 KiB = 2^20 Bytes = 1.048.576 Bytes
|
- 1 MebiByte = 1 MiB = 1024 KiB = 2^20 Bytes = 1.048.576 Bytes
|
||||||
- 1 GibiByte = 1 GiB = 1024 MiB = 2^30 Bytes = 1.073.741.824 Bytes
|
- 1 GibiByte = 1 GiB = 1024 MiB = 2^30 Bytes = 1.073.741.824 Bytes
|
||||||
- 1 TebiByte = 1 TiB = 1024 GiB = 2^40 Bytes = 1.099.511.627.776 Bytes
|
- 1 TebiByte = 1 TiB = 1024 GiB = 2^40 Bytes = 1.099.511.627.776 Bytes
|
||||||
|
|
||||||
|
|
||||||
## Blocktransfer (Burst)
|
## Blocktransfer (Burst)
|
||||||
Auslesen des kompletten Zeilenpuffers durch automatisches Inkrementieren der Spaltenadresse
|
Auslesen des kompletten Zeilenpuffers durch automatisches Inkrementieren der Spaltenadresse
|
||||||
|
|
||||||
## Cache
|
## Cache
|
||||||
= schneller Speicher, der vor einen größeren, langsamen Speicher geschaltet wird
|
= schneller Speicher, der vor einen größeren, langsamen Speicher geschaltet wird
|
||||||
- Im weiteren Sinn: Puffer zur Aufnahme häufig benötigter Daten
|
- Im weiteren Sinn: Puffer zur Aufnahme häufig benötigter Daten
|
||||||
- Für Daten die schon mal gelesen wurden oder in der Nähe von diesen liegen
|
- Für Daten die schon mal gelesen wurden oder in der Nähe von diesen liegen
|
||||||
- 90% der Zeit verbringt ein Programm in 10% des Codes
|
- 90% der Zeit verbringt ein Programm in 10% des Codes
|
||||||
- Im engeren Sinn: Puffer zwischen Hauptspeicher und Prozessor
|
- Im engeren Sinn: Puffer zwischen Hauptspeicher und Prozessor
|
||||||
- Ursprung: cacher (frz.) – verstecken („versteckter Speicher“)
|
- Ursprung: cacher (frz.) – verstecken („versteckter Speicher“)
|
||||||
|
|
||||||
Organisation von Caches
|
Organisation von Caches
|
||||||
- Prüfung anhand der Adresse, ob benötigte Daten im Cache vorhanden sind („Treffer“; cache hit)
|
- Prüfung anhand der Adresse, ob benötigte Daten im Cache vorhanden sind („Treffer“; cache hit)
|
||||||
- Falls nicht (cache miss): Zugriff auf den (Haupt-) Speicher, Eintrag in den Cache
|
- Falls nicht (cache miss): Zugriff auf den (Haupt-) Speicher, Eintrag in den Cache
|
||||||
|
|
||||||
|
|
||||||
# Ein- und Ausgabe
|
# Ein- und Ausgabe
|
||||||
## Übertragungsprotokolle
|
## Übertragungsprotokolle
|
||||||
- Synchrone Busse
|
- Synchrone Busse
|
||||||
- Keine Rückmeldung bei der Übertragung
|
- Keine Rückmeldung bei der Übertragung
|
||||||
- Unidirektionales Timing
|
- Unidirektionales Timing
|
||||||
- Asynchrone Busse
|
- Asynchrone Busse
|
||||||
- Rückmeldung der Datenannahme
|
- Rückmeldung der Datenannahme
|
||||||
- Bidirektionales Timing
|
- Bidirektionales Timing
|
||||||
|
|
||||||
| | unidirektional | bidirektional |
|
| | unidirektional | bidirektional |
|
||||||
| -- | -- | -- |
|
| -- | -- | -- |
|
||||||
| Beschreibung | Kommunikationspartner verlassen sich darauf, dass Partner innerhalb festgelegter Zeit reagieren. | Kommunikationspartner bestätigen per Kontrollsignal (senden ein acknowledgment), dass sie in der erwarteten Weise reagiert haben. |
|
| Beschreibung | Kommunikationspartner verlassen sich darauf, dass Partner innerhalb festgelegter Zeit reagieren. | Kommunikationspartner bestätigen per Kontrollsignal (senden ein acknowledgment), dass sie in der erwarteten Weise reagiert haben. |
|
||||||
| Vorteile | einfach; bei konstanten Antwortzeiten schnell | passt sich unterschiedlichen Geschwindigkeiten an; hoher Grad an Flusskontrolle möglich |
|
| Vorteile | einfach; bei konstanten Antwortzeiten schnell | passt sich unterschiedlichen Geschwindigkeiten an; hoher Grad an Flusskontrolle möglich |
|
||||||
| Nachteile | Kommunikationspartner muss in bestimmter Zeit | antworten komplexer; Zeitüberwachung notwendig; evtl. langsam |
|
| Nachteile | Kommunikationspartner muss in bestimmter Zeit | antworten komplexer; Zeitüberwachung notwendig; evtl. langsam |
|
||||||
| Einsatzgebiet | synchrone Busse, Speicherbusse | asynchrone Busse, E/A- und Peripheriebusse |
|
| Einsatzgebiet | synchrone Busse, Speicherbusse | asynchrone Busse, E/A- und Peripheriebusse |
|
||||||
|
|
||||||
Programmierbarer Interrupt Controller (PIC)
|
Programmierbarer Interrupt Controller (PIC)
|
||||||
|
|
||||||
# Prozessorergänzung
|
# Prozessorergänzung
|
||||||
## Prozessor-Leistung
|
## Prozessor-Leistung
|
||||||
Leistung = (Durchschnitts-)Befehle pro Zeit\
|
Leistung = (Durchschnitts-)Befehle pro Zeit\
|
||||||
Berechnung: $L=\frac{IPC}{t_{cycle}}$ mit $IPC = \frac{1}{CPI}$ und $CPI = \sum t_i *p_i$
|
Berechnung: $L=\frac{IPC}{t_{cycle}}$ mit $IPC = \frac{1}{CPI}$ und $CPI = \sum t_i *p_i$
|
||||||
- IPC: Instructions Per Cycle (Anzahl Durchschnittsbefehle pro Taktzyklus)
|
- IPC: Instructions Per Cycle (Anzahl Durchschnittsbefehle pro Taktzyklus)
|
||||||
- CPI: Cycles Per Instruction (Mittlere Anzahl Taktzyklen pro Befehl)
|
- CPI: Cycles Per Instruction (Mittlere Anzahl Taktzyklen pro Befehl)
|
||||||
- $t_i$ : Anzahl Taktzyklen des i-ten Befehls
|
- $t_i$ : Anzahl Taktzyklen des i-ten Befehls
|
||||||
- $p_i$ : Relative Häufigkeit des i-ten Befehls
|
- $p_i$ : Relative Häufigkeit des i-ten Befehls
|
||||||
- $t_cycle$ : Taktzykluszeit [$μs$]
|
- $t_cycle$ : Taktzykluszeit [$μs$]
|
||||||
|
|
||||||
## Befehlspalette
|
## Befehlspalette
|
||||||
Pipelining: Fließbandverarbeitung (seriell vs parallel)
|
Pipelining: Fließbandverarbeitung (seriell vs parallel)
|
||||||
- IF / ID / EX: Befehl lesen / dekodieren / ausführen
|
- IF / ID / EX: Befehl lesen / dekodieren / ausführen
|
||||||
- OF / WB: Operand lesen / schreiben (Register)
|
- OF / WB: Operand lesen / schreiben (Register)
|
||||||
- Probleme: Unterschiedliche Phasenlänge, bedingte Sprünge, Datenabhängigkeiten
|
- Probleme: Unterschiedliche Phasenlänge, bedingte Sprünge, Datenabhängigkeiten
|
||||||
|
|
||||||
Superskalare Architektur: \
|
Superskalare Architektur: \
|
||||||
Befehl lesen -> Befehl dekodieren -> Operand lesen -> Befehl ausführen -> Operand schreiben
|
Befehl lesen -> Befehl dekodieren -> Operand lesen -> Befehl ausführen -> Operand schreiben
|
||||||
|
|
||||||
dRam: mit Kondensator\
|
dRam: mit Kondensator\
|
||||||
sRam: mit FlipFlop\
|
sRam: mit FlipFlop\
|
||||||
RAM: Random Access Memory\
|
RAM: Random Access Memory\
|
||||||
ROM: Read Only Memory\
|
ROM: Read Only Memory\
|
||||||
|
47
Stochastik.md
Normal file
47
Stochastik.md
Normal file
@ -0,0 +1,47 @@
|
|||||||
|
---
|
||||||
|
title: Stochastik
|
||||||
|
date: Wintersemester 20/21
|
||||||
|
author: Wieerwill
|
||||||
|
---
|
||||||
|
|
||||||
|
# Stochastik ist
|
||||||
|
- Wahrscheinlichkeitstheorie: mathematische "Sprache" zur Modellierung zufälliger Phänomene
|
||||||
|
- Ziel: über gegebene Eigenschaften des Systems präzise Aussagen über zukünftige, zufällige Beobachtungen
|
||||||
|
- und Statistik:
|
||||||
|
- Beschreibung beobachteter Daten
|
||||||
|
- Schätzen unbekannter Parameter
|
||||||
|
- Testen von Hypothesen
|
||||||
|
- Vorhersagen unbeobachteter zufälliger Werte
|
||||||
|
- Modellwahl und -überprüfung
|
||||||
|
- Ziel: basierend auf zufälligen Beobachtungen auf Eigenschaften des Systems“ schließen
|
||||||
|
|
||||||
|
## Wahrscheinlichkeiten
|
||||||
|
### Wahrscheinlichkeitsraum $(\Omega , P)$
|
||||||
|
- $\Omega$: Grundraum, Menge der Elementarereignisse (oder Ausgänge) (Bsp: $\Omega={heil, kaputt}^x$)
|
||||||
|
- $\omega \in \Omega$: Elementarereignis, Ausgang (Bsp: $\omega=(heil, heil, heil, kaputt, heil...)$)
|
||||||
|
- $A \subseteq \Omega$: Ereignis (Bsp: $A={\omega: Anzahl kaputt = 2 }$)
|
||||||
|
- $P$: Wahrscheinlichkeitsmaß, d.h.
|
||||||
|
- Wahrscheinlichkeit, dass A eintritt: $\Omega \supseteq A \rightarrow P(A) \in [0,1]$
|
||||||
|
- $\sigma$-Additivität: $P(U_{k\in N} A_k)= \sum_{k\in N} P(A_k)$ für disjunkte $A_k, k\in N$
|
||||||
|
- sicheres Ereignis $\Omega$: $P(\Omega)= 1$
|
||||||
|
|
||||||
|
## Laplace Expriment
|
||||||
|
$\Omega$ sei eindlich und $P(\omega)=\frac{1}{*\Omega} \rightarrow$ Laplace-Verteilung oder diskrete Gleichverteilung $\rightarrow$ für $A \subseteq \Omega: P(A)=\sum_{\omega \in A} P(\omega)=\frac{*A}{*\Omega}=\frac{\text{Anzahl "günstige" Ausgänge"}}{\text{Anzahl "alle" Ausgänge}}$
|
||||||
|
|
||||||
|
Laplace-Verteilung: Alle Ausgänge sind gleichwahrscheinlich $\rightarrow$ Symmetrie
|
||||||
|
|
||||||
|
## Urnenmodell
|
||||||
|
Eine Urne enthält schwarze (S) und weiße (W) Kugeln, insgesamt also $N=S+W$. Man zieht zufällig eine Kugel und nummeriert durch.
|
||||||
|
- P(i-te Kugel wird gezogen)= $\frac{1}{N}$ für $i=1,..,N$
|
||||||
|
- P(Kugel ist schwarz)=$\sum_{i=1}^S P(\text{i-te Kugel wird gezogen}) = S \frac{1}{N}=\frac{S}{N}$
|
||||||
|
|
||||||
|
### Ziehen ohne zurücklegen
|
||||||
|
Was, wenn man noch eine Kugel zieht (ohne Zurücklegen)?
|
||||||
|
$\rightarrow$ Zweistufiges Experiment! Modellieren mit bedingten Wahrscheinlichkeiten.
|
||||||
|
|
||||||
|
## Bedingte Wahrscheinlichkeiten
|
||||||
|
$A,B \subseteq \Omega$ mit $P(B)> 0$; man beobachtet, dass B eintritt
|
||||||
|
|
||||||
|
die bedingte Wahrscheinlichkeit von "A gegeben B": $P(A|B)=\frac{P(A \cap B)}{P(B)}$
|
||||||
|
|
||||||
|
die totale Wahrscheinlichkeit: $P(A)=\sum_{i=1}^n P(A|B_i)P(B_i)$
|
File diff suppressed because it is too large
Load Diff
7130
Telematik 1.md
7130
Telematik 1.md
File diff suppressed because it is too large
Load Diff
Loading…
Reference in New Issue
Block a user