starting 3rd semester

This commit is contained in:
Robert Jeutter 2020-10-12 11:00:07 +02:00
parent f754d784f6
commit e3c73f4593
17 changed files with 14976 additions and 14928 deletions

556
.gitignore vendored
View File

@ -1,278 +1,278 @@
.vscode
## Core latex/pdflatex auxiliary files:
*.aux
*.lof
*.log
*.lot
*.fls
*.out
*.toc
*.fmt
*.fot
*.cb
*.cb2
.*.lb
## Intermediate documents:
*.dvi
*.xdv
*-converted-to.*
# these rules might exclude image files for figures etc.
# *.ps
# *.eps
# *.pdf
## Generated if empty string is given at "Please type another file name for output:"
.pdf
## Bibliography auxiliary files (bibtex/biblatex/biber):
*.bbl
*.bcf
*.blg
*-blx.aux
*-blx.bib
*.run.xml
## Build tool auxiliary files:
*.fdb_latexmk
*.synctex
*.synctex(busy)
*.synctex.gz
*.synctex.gz(busy)
*.pdfsync
## Build tool directories for auxiliary files
# latexrun
latex.out/
## Auxiliary and intermediate files from other packages:
# algorithms
*.alg
*.loa
# achemso
acs-*.bib
# amsthm
*.thm
# beamer
*.nav
*.pre
*.snm
*.vrb
# changes
*.soc
# comment
*.cut
# cprotect
*.cpt
# elsarticle (documentclass of Elsevier journals)
*.spl
# endnotes
*.ent
# fixme
*.lox
# feynmf/feynmp
*.mf
*.mp
*.t[1-9]
*.t[1-9][0-9]
*.tfm
#(r)(e)ledmac/(r)(e)ledpar
*.end
*.?end
*.[1-9]
*.[1-9][0-9]
*.[1-9][0-9][0-9]
*.[1-9]R
*.[1-9][0-9]R
*.[1-9][0-9][0-9]R
*.eledsec[1-9]
*.eledsec[1-9]R
*.eledsec[1-9][0-9]
*.eledsec[1-9][0-9]R
*.eledsec[1-9][0-9][0-9]
*.eledsec[1-9][0-9][0-9]R
# glossaries
*.acn
*.acr
*.glg
*.glo
*.gls
*.glsdefs
*.lzo
*.lzs
# uncomment this for glossaries-extra (will ignore makeindex's style files!)
# *.ist
# gnuplottex
*-gnuplottex-*
# gregoriotex
*.gaux
*.gtex
# htlatex
*.4ct
*.4tc
*.idv
*.lg
*.trc
*.xref
# hyperref
*.brf
# knitr
*-concordance.tex
# TODO Comment the next line if you want to keep your tikz graphics files
*.tikz
*-tikzDictionary
# listings
*.lol
# luatexja-ruby
*.ltjruby
# makeidx
*.idx
*.ilg
*.ind
# minitoc
*.maf
*.mlf
*.mlt
*.mtc[0-9]*
*.slf[0-9]*
*.slt[0-9]*
*.stc[0-9]*
# minted
_minted*
*.pyg
# morewrites
*.mw
# nomencl
*.nlg
*.nlo
*.nls
# pax
*.pax
# pdfpcnotes
*.pdfpc
# sagetex
*.sagetex.sage
*.sagetex.py
*.sagetex.scmd
# scrwfile
*.wrt
# sympy
*.sout
*.sympy
sympy-plots-for-*.tex/
# pdfcomment
*.upa
*.upb
# pythontex
*.pytxcode
pythontex-files-*/
# tcolorbox
*.listing
# thmtools
*.loe
# TikZ & PGF
*.dpth
*.md5
*.auxlock
# todonotes
*.tdo
# vhistory
*.hst
*.ver
# easy-todo
*.lod
# xcolor
*.xcp
# xmpincl
*.xmpi
# xindy
*.xdy
# xypic precompiled matrices and outlines
*.xyc
*.xyd
# endfloat
*.ttt
*.fff
# Latexian
TSWLatexianTemp*
## Editors:
# WinEdt
*.bak
*.sav
# Texpad
.texpadtmp
# LyX
*.lyx~
# Kile
*.backup
# gummi
.*.swp
# KBibTeX
*~[0-9]*
# TeXnicCenter
*.tps
# auto folder when using emacs and auctex
./auto/*
*.el
# expex forward references with \gathertags
*-tags.tex
# standalone packages
*.sta
# Makeindex log files
*.lpz
.vscode
## Core latex/pdflatex auxiliary files:
*.aux
*.lof
*.log
*.lot
*.fls
*.out
*.toc
*.fmt
*.fot
*.cb
*.cb2
.*.lb
## Intermediate documents:
*.dvi
*.xdv
*-converted-to.*
# these rules might exclude image files for figures etc.
# *.ps
# *.eps
# *.pdf
## Generated if empty string is given at "Please type another file name for output:"
.pdf
## Bibliography auxiliary files (bibtex/biblatex/biber):
*.bbl
*.bcf
*.blg
*-blx.aux
*-blx.bib
*.run.xml
## Build tool auxiliary files:
*.fdb_latexmk
*.synctex
*.synctex(busy)
*.synctex.gz
*.synctex.gz(busy)
*.pdfsync
## Build tool directories for auxiliary files
# latexrun
latex.out/
## Auxiliary and intermediate files from other packages:
# algorithms
*.alg
*.loa
# achemso
acs-*.bib
# amsthm
*.thm
# beamer
*.nav
*.pre
*.snm
*.vrb
# changes
*.soc
# comment
*.cut
# cprotect
*.cpt
# elsarticle (documentclass of Elsevier journals)
*.spl
# endnotes
*.ent
# fixme
*.lox
# feynmf/feynmp
*.mf
*.mp
*.t[1-9]
*.t[1-9][0-9]
*.tfm
#(r)(e)ledmac/(r)(e)ledpar
*.end
*.?end
*.[1-9]
*.[1-9][0-9]
*.[1-9][0-9][0-9]
*.[1-9]R
*.[1-9][0-9]R
*.[1-9][0-9][0-9]R
*.eledsec[1-9]
*.eledsec[1-9]R
*.eledsec[1-9][0-9]
*.eledsec[1-9][0-9]R
*.eledsec[1-9][0-9][0-9]
*.eledsec[1-9][0-9][0-9]R
# glossaries
*.acn
*.acr
*.glg
*.glo
*.gls
*.glsdefs
*.lzo
*.lzs
# uncomment this for glossaries-extra (will ignore makeindex's style files!)
# *.ist
# gnuplottex
*-gnuplottex-*
# gregoriotex
*.gaux
*.gtex
# htlatex
*.4ct
*.4tc
*.idv
*.lg
*.trc
*.xref
# hyperref
*.brf
# knitr
*-concordance.tex
# TODO Comment the next line if you want to keep your tikz graphics files
*.tikz
*-tikzDictionary
# listings
*.lol
# luatexja-ruby
*.ltjruby
# makeidx
*.idx
*.ilg
*.ind
# minitoc
*.maf
*.mlf
*.mlt
*.mtc[0-9]*
*.slf[0-9]*
*.slt[0-9]*
*.stc[0-9]*
# minted
_minted*
*.pyg
# morewrites
*.mw
# nomencl
*.nlg
*.nlo
*.nls
# pax
*.pax
# pdfpcnotes
*.pdfpc
# sagetex
*.sagetex.sage
*.sagetex.py
*.sagetex.scmd
# scrwfile
*.wrt
# sympy
*.sout
*.sympy
sympy-plots-for-*.tex/
# pdfcomment
*.upa
*.upb
# pythontex
*.pytxcode
pythontex-files-*/
# tcolorbox
*.listing
# thmtools
*.loe
# TikZ & PGF
*.dpth
*.md5
*.auxlock
# todonotes
*.tdo
# vhistory
*.hst
*.ver
# easy-todo
*.lod
# xcolor
*.xcp
# xmpincl
*.xmpi
# xindy
*.xdy
# xypic precompiled matrices and outlines
*.xyc
*.xyd
# endfloat
*.ttt
*.fff
# Latexian
TSWLatexianTemp*
## Editors:
# WinEdt
*.bak
*.sav
# Texpad
.texpadtmp
# LyX
*.lyx~
# Kile
*.backup
# gummi
.*.swp
# KBibTeX
*~[0-9]*
# TeXnicCenter
*.tps
# auto folder when using emacs and auctex
./auto/*
*.el
# expex forward references with \gathertags
*-tags.tex
# standalone packages
*.sta
# Makeindex log files
*.lpz

File diff suppressed because it is too large Load Diff

File diff suppressed because it is too large Load Diff

Before

Width:  |  Height:  |  Size: 76 KiB

After

Width:  |  Height:  |  Size: 77 KiB

File diff suppressed because one or more lines are too long

Before

Width:  |  Height:  |  Size: 42 KiB

After

Width:  |  Height:  |  Size: 43 KiB

File diff suppressed because it is too large Load Diff

File diff suppressed because it is too large Load Diff

View File

@ -1,245 +1,245 @@
\documentclass[10pt,landscape]{article}
\usepackage{multicol}
\usepackage{calc}
\usepackage{ifthen}
\usepackage[landscape]{geometry}
\usepackage{amsmath,amsthm,amsfonts,amssymb}
\usepackage{color,graphicx,overpic}
\usepackage{hyperref}
\pdfinfo{
/Title (Grundlagen und Diskrete Strukturen - Short Script)
/Creator (TeX)
/Producer (pdfTeX 1.40.0)
/Author (Robert Jeutter)
/Subject (Grundlagen und Diskrete Strukturen)
}
% This sets page margins to .5 inch if using letter paper, and to 1cm
% if using A4 paper. (This probably isn't strictly necessary.)
% If using another size paper, use default 1cm margins.
\ifthenelse{\lengthtest { \paperwidth = 11in}}
{ \geometry{top=.5in,left=.5in,right=.5in,bottom=.5in} }
{\ifthenelse{ \lengthtest{ \paperwidth = 297mm}}
{\geometry{top=1cm,left=1cm,right=1cm,bottom=1cm} }
{\geometry{top=1cm,left=1cm,right=1cm,bottom=1cm} }
}
% Turn off header and footer
\pagestyle{empty}
% Redefine section commands to use less space
\makeatletter
\renewcommand{\section}{\@startsection{section}{1}{0mm}%
{-1ex plus -.5ex minus -.2ex}%
{0.5ex plus .2ex}%x
{\normalfont\large\bfseries}}
\renewcommand{\subsection}{\@startsection{subsection}{2}{0mm}%
{-1explus -.5ex minus -.2ex}%
{0.5ex plus .2ex}%
{\normalfont\normalsize\bfseries}}
\renewcommand{\subsubsection}{\@startsection{subsubsection}{3}{0mm}%
{-1ex plus -.5ex minus -.2ex}%
{1ex plus .2ex}%
{\normalfont\small\bfseries}}
\makeatother
% Define BibTeX command
\def\BibTeX{{\rm B\kern-.05em{\sc i\kern-.025em b}\kern-.08em
T\kern-.1667em\lower.7ex\hbox{E}\kern-.125emX}}
% Don't print section numbers
\setcounter{secnumdepth}{0}
\setlength{\parindent}{0pt}
\setlength{\parskip}{0pt plus 0.5ex}
%My Environments
\newtheorem{example}[section]{Example}
% -----------------------------------------------------------------------
\begin{document}
\raggedright
\footnotesize
\begin{multicols}{3}
% multicol parameters
% These lengths are set only within the two main columns
%\setlength{\columnseprule}{0.25pt}
\setlength{\premulticols}{1pt}
\setlength{\postmulticols}{1pt}
\setlength{\multicolsep}{1pt}
\setlength{\columnsep}{2pt}
\paragraph{Relationen}
Sei $R\in AxA$ binäre Relation auf A
\begin{itemize}
\item Reflexiv $\leftrightarrow \text{ xRx } \forall x \in A$
\item symmetrisch $\leftrightarrow \text{ xRy } \rightarrow \text{ yRx }$
\item Antisymmetrisch $\leftrightarrow \text{ xRy } \wedge yRx \rightarrow x=y$
\item Transitiv $\leftrightarrow \text{ xRy } \wedge \text{ yRz } \rightarrow \text{ xRz }$
\item totale Relation $\leftrightarrow \text{ xRy } \vee \text{ yRx } \forall x,y \in A$
\end{itemize}
R heißt:
\begin{itemize}
\item Äquivalenzrelation $\leftrightarrow$ reflexiv, symmetrisch und transitiv
\item Ordnung $\leftrightarrow$ reflexiv, antisymmetrisch und transitiv
\item Totalordnung $\leftrightarrow$ Ordnung und total
\item Quasiordnung $\leftrightarrow$ reflexiv und transitiv
\end{itemize}
\paragraph{Partition/Klasse}
Sei $C\wp (A)$. C heißt Partition/Klasse von A, falls gilt:
\begin{itemize}
\item $\bigcup C=A$ d.h. jedes $x\in A$ liegt in (min) einem $y\in C$
\item $\emptyset \not \in C$ d.h. jedes $y\in C$ enthält (min) ein Element von A
\item $x \cap y = \emptyset$ f.a. $x\not \in y$ aus C
\end{itemize}
\paragraph{Ordnungen}
Sei $leq$ eine Ordnung auf X. Sei $A\subseteq X, b\in X$
\begin{itemize}
\item b minimal in A $\leftrightarrow b\in A$ und $(c\leq b \rightarrow c=b f.a. c\in A)$
\item b maximal in A $\leftrightarrow b\in A$ und $(b\leq c \rightarrow b=c f.a. c\in A)$
\item b kleinstes Element in A $\leftrightarrow b\in A$ und $(b\leq c f.a. c\in A)$
\item b größtes Element in A $\leftrightarrow b\in A$ und $(c\leq b f.a. c\in A)$
\item b untere Schranke von A $\leftrightarrow b\leq c f.a. c\in A$
\item b obere Schranke von A $\leftrightarrow c\leq b f.a. c\in A$
\item b kleinste obere Schranke $\leftrightarrow$ kleinstes Element von obere Schranke; Supremum $\lor A = b$
\item b größte untere Schranke $\leftrightarrow$ größte Element von untere Schranke; Infinum $\land A = b$
\end{itemize}
\paragraph{Induktion I}
Sei $p(n)\in \mathbb{N}$. Gelte $p(0)$ und $p(n)\rightarrow p(n^{+})$ f.a. $n\in \mathbb{N}$ dann ist $p(n)$ wahr f.a. $n \in \mathbb{N}$.
\paragraph{Induktion II}
Sei $p(n)\in \mathbb{N}$, gelte $\{\forall x < n: p(x)\} \rightarrow p(n)$ f.a. $n\in \mathbb{N}$. Damit ist $p(n)$ wahr für alle $n\in \mathbb{N}$.
\section{Funktionen}
Eine Relation $f\subseteq A x B$ heißt Funktion $f:A\rightarrow B$ falls es zu jedem $x\in A$ genau ein $y\in B$ mit $(x,y)\in f$ gibt.
\begin{itemize}
\item injektiv $\leftrightarrow$ jedes y aus B hat höchstens ein Urbild $f(x)=f(y)\rightarrow x=y$
\item subjektiv $\leftrightarrow$ jedes y aus B hat wenigstens ein Urbild $f(x)=y$
\item bijektiv $\leftrightarrow$ jedes y aus B hat genau ein Urbild; injektiv und surjektiv
\end{itemize}
ist $f:A\rightarrow B$ bijektiv, so ist $f^{-1}$ eine Funktion B nach A und gleichmächtig.
\section{Gruppen, Ringe, Körper}
Eine Menge G mit einer Operation $\circ$ auf G heißt Gruppe, falls gilt:
\begin{itemize}
\item $a\circ (b\circ c) = (a\circ b)\circ c$ freie Auswertungsfolge
\item es gibt ein neutrales Element $e\in G$ mit $a\circ e=a$ und $e\circ a=a$ f.a. $a\in G$
\item $\forall a\in G \exists b\in G: \{a\circ b=e\} \vee \{b\circ a=e\}; b=a^{-1}$
\end{itemize}
kommutativ/abelsch, falls neben obigen gilt:
\begin{itemize}
\item $a\circ b = b\circ a$ f.a. $a,b \in G$
\end{itemize}
Zwei Gruppen $(G, \circ_G)$ und $(H,\circ_H)$ heißen isomorph, falls es einen Isomorphismus $(G,\circ_G)\cong (H,\circ_H)$ von $(G,\circ_G)$ nach $(H,\circ_H)$ gibt.
\paragraph{Addition \& Multiplikation}
$+: \mathbb{N} x \mathbb{N} \rightarrow \mathbb{N}$ wird definiert durch:
\begin{itemize}
\item $m+0:=m$ (0 ist neutral)
\item $m+n$ sei schon definiert
\item $m+n^+:=(m+n)^+$
\item $m*0:=0$
\item $m*n^+=m*n+m$
\item $[(a,b)]_{/\sim } + [(c,d)]_{/\sim } = [(a+c, b+d)]_{/\sim }$
\item $[(a,b)]_{/\sim } * [(c,d)]_{/\sim } = [(ac+bd, ad+bc)]_{/\sim }$
\end{itemize}
Ein Ring R ist eine Menge mit zwei Operationen $+,*: \mathbb{R} x \mathbb{R} \rightarrow \mathbb{R}$ mit:
\begin{itemize}
\item $a+(b+c) = (a+b)+c$ f.a. $a,b,c\in \mathbb{R}$
\item Es gibt ein neutrales Element $O\in \mathbb{R}$ mit $O+a=a+O=O$
\item zu jedem $a\in \mathbb{R}$ gibt es ein $-a\in \mathbb{R}$ mit $a+(-a)=-a+a=0$
\item $a+b=b+a$ f.a. $a,b\in\mathbb{R}$
\item $a*(b*c)=(a*b)*c)$ f.a. $a,b,c\in\mathbb{R}$
\item $a*(b+c)=a*b+a*c$ f.a. $a,b,c\in\mathbb{R}$
\item heißt Ring mit 1, falls: es gibt ein $1\in\mathbb{R}$ mit $a*1=1*a=a$
\item heißt kommutativ, falls: $a*b=b*a$ f.a. $a,b\in\mathbb{R}$
\item heißt Körper, falls: zu jedem $a\in\mathbb{R}$ gibt es ein $a^{-1}\in\mathbb{R}$ mit $a*a^{-1}=1$
\item Ist $\mathbb{R}$ ein Körper, so ist $\mathbb{R}*=\mathbb{R} /(0)$ mit $*$ eine abelsche Gruppe.
\item $\mathbb{Z}$ mit + und * ist ein kommutativer Ring mit $1 \not= 0$ aber kein Körper
\item $\mathbb{Q}, \mathbb{C}, \mathbb{R}$ mit + und * ist ein Körper
\end{itemize}
\paragraph{Konstruktion von rationalen Zahlen}
Definiere Operationen +,* auf $\mathbb{Q}$ wie folgt:
\begin{itemize}
\item $\frac{a}{b}+\frac{c}{d} = \frac{ad+bc}{b*d}$ (wohldefiniert)
\item $\frac{a}{b}*\frac{c}{d} = \frac{a*c}{b*d}$
\end{itemize}
\paragraph{Ring der formalen Potenzreihe}
Sei k ein Körper. Eine Folge $(a_0,...,a:n)\in K^{\mathbb{N}}$ mit Einträgen aus K heißt formale Potenzreihe $K[[x]]$.
\begin{itemize}
\item +: $(a_0,a_1,...) + (b_0,b_1,...) = (a_o+b_0, a_1+b_1, ...)$
\item *: $(a_0,a_1,...) + (b_0,b_1,...) = (c_0, c_1,...)$ mit $c_K=\sum_{j=a}^{k} a_j*b_{k-j}$
\end{itemize}
\section{Wahrscheinlichkeit}
Ein Wahrscheinlichkeitsraum ist ein Paar $(\Omega, p)$ aus einer endlichen Menge $\Omega$ und einer Funktion $p:\Omega \rightarrow [0,1]\in \mathbb{R}$
Es gilt für Ereignisse $A,B,A_1,...,A_k$:
\begin{itemize}
\item $A\subseteq B \rightarrow p(A)\leq p(B)$
\item $p(A\cup B) \rightarrow p(A)+p(B)-p(A\cap B)$
\item disjunkt($A_i \cap A_J=\emptyset$ für $i\not =j$) so gilt $p(A_1 \cup ... \cup A_k)= p(A_1)+...+p(A_k)$
\item $p(\Omega / A):=$ Gegenereignis von $A=1-p(A)$
\item $p(A_1,...,A_k) \leq p(A_1)+...+p(A_k)$
\item (stochastisch) unabhängig, falls $p(A\cap B) = p(A)*p(B)$
\end{itemize}
\paragraph{Bedingte Wahrscheinlichkeiten}
$A,B\subseteq \Omega$ für $p_B(A\cap B)= \frac{p(A\cap B)}{p(B)}:= p(A|B)$\
Erwartungswert $E(X) = \sum_{\omega \in \Omega} X(\omega)p(\omega)$\
Linearität von E: $E(x+y)=E(x)+E(y)$ und $E(\alpha x)=\alpha E(x)$\
Varianz von X: $Var(X)=E((X^2)-E(X))^2)$\
Covarianz: $Cov(X,Y)=E((X-E(X))*(Y-E(Y)))$\
Verschiebungssatz: $Cov(X,Y)=E(X*Y)-E(X)*E(Y)$\
Bernoulliverteilt falls $p(X=1)=p$ und $p(X=0)=1-p$\
Bernoulli $P=\binom{n}{k}*p^k*(1-p)^{n-k}$\
$\binom{N}{0}=(\emptyset), \binom{N}{n}={N}, \binom{n}{0}=\binom{n}{n}=1$ $\binom{n}{0}=1, \binom{n}{k}=\binom{n-1}{k-1}+\binom{n-1}{k}=\frac{n!}{k!(n-k)!}$
\paragraph{Hypergeometrische Verteilung}
Beispiel: Urne mit zwei Sorten Kugeln; N Gesamtzahl der Kugeln, M Gesamtzahl Kugeln Sorte 1, N-M Gesamtzahl Kugeln Sorte 2, $n\leq N$ Anzahl Elemente einer Stichprobe. X Anzahl der Kugeln Sorte 1 in einer zufälligen n-elementigen Stichprobe.
$p(X=k)=\frac{\binom{M}{k}\binom{N-M}{n-k}}{\binom{N}{n}}$\
$E(X)=\sum_{x=0}^M \frac{\binom{M}{k}\binom{N-M}{n-k}}{\binom{N}{n}}=n*\frac{M}{N}$\
$Var(X)=E(X^2)-E(X)^2 = n*\frac{M}{N}(1-\frac{M}{N})\binom{N-n}{N-1}$
\section{Elementare Graphentheorie}
$G=(V,E)$ heißt Graph mit Eckenmenge $V(G)=V$ und Kantenmenge $E(G)=E\subseteq {{x,y}:x\not=y \in V}$.\
Für $(a,b)\in V(G)$ heißt $d_G(a,b)=min(l: \text{ es gibt einen a,b-Weg der Länge l} )$ Abstand von a nach b.\
G heißt zusammenhängend, wenn G höchstens eine Komponente besitzt.
\begin{itemize}
\item $d_G(x,y)=0 \leftrightarrow x=y$
\item $d_G(x,y)=d_G(y,x)$
\item $d_G(x,z)\leq d_G(x,y) + d_G(y,z))$
\end{itemize}
Ein Graph ist ein Baum wenn "G ist minimal zusammenhängend und kreisfrei"
\begin{itemize}
\item G ist kreisfrei und zusammenhängend
\item G kreisfrei und $|E(G)|=|V(G)|-1$
\item G zusammenhängend und $|E(G)|=|V(G)|-1$
\end{itemize}
Breitensuchbaum von G falls $d_F(z,x)=d_G(z,x)$ f.a. $z\in V(G)$.\
Tiefensuchbaum von G falls für jede Kante zy gilt: z liegt auf dem y,x-Weg in T oder y liegt auf dem z,t-Weg in T.
\paragraph{Spannbäume minimaler Gewichte}
Sei G zuständiger Graph, $\omega:E(G)\rightarrow \mathbb{R}$; Setze $F=\emptyset$. Solange es eine Kante $e\in E(G)/F$ gibt so, dass $F \vee (e)$ kreisfrei ist, wähle e mit minimalem Gewicht $\omega(e)$, setzte $F=F\vee {e}$, iterieren. Das Verfahren endet mit einem Spannbaum $T=G(F)$ minimalen Gewichts.
\paragraph{Das Traveling Salesman Problem}
Konstruiere eine Folge$x_0,...,x_m$ mit der Eigenschaft, dass jede Kante von T genau zweimal zum Übergang benutzt wird, d.h. zu $e\in E(T)$ existieren $i\not = j$ mit $e=x_i x_{i+1}$ und $e=x_j x_{j+1}$ und zu jedem k existieren $e\in E(T)$ mit $e=x_k x_{k+1}$. Das Gewicht dieser Folge sei $\sum \omega(x_i x_{i+1})= 2\omega(T)$. Eliminiere Mehrfachnennungen in der Folge. Durch iteration erhält man einen aufspannenden Kreis mit $\omega(X) \leq 2 \omega(T)$.
\paragraph{Färbung \& bipartit}
Eine Funktion $f:V(G)\rightarrow C$ mit $|C|\leq k$ heißt k-Färbung, falls $f(x)\not = f(y)$ für $xy\in E(G)$.
Ein Graph heißt bipartit mit den Klassen A,B falls $(x\in A \wedge y\in B)\vee (x\in B \wedge y\in A)$.
Mit Bipartitheit gilt G hat ein Matching von A $\leftrightarrow |N_G(X)|\leq |X|$ für alle $X\subseteq A$.
\end{multicols}
\documentclass[10pt,landscape]{article}
\usepackage{multicol}
\usepackage{calc}
\usepackage{ifthen}
\usepackage[landscape]{geometry}
\usepackage{amsmath,amsthm,amsfonts,amssymb}
\usepackage{color,graphicx,overpic}
\usepackage{hyperref}
\pdfinfo{
/Title (Grundlagen und Diskrete Strukturen - Short Script)
/Creator (TeX)
/Producer (pdfTeX 1.40.0)
/Author (Robert Jeutter)
/Subject (Grundlagen und Diskrete Strukturen)
}
% This sets page margins to .5 inch if using letter paper, and to 1cm
% if using A4 paper. (This probably isn't strictly necessary.)
% If using another size paper, use default 1cm margins.
\ifthenelse{\lengthtest { \paperwidth = 11in}}
{ \geometry{top=.5in,left=.5in,right=.5in,bottom=.5in} }
{\ifthenelse{ \lengthtest{ \paperwidth = 297mm}}
{\geometry{top=1cm,left=1cm,right=1cm,bottom=1cm} }
{\geometry{top=1cm,left=1cm,right=1cm,bottom=1cm} }
}
% Turn off header and footer
\pagestyle{empty}
% Redefine section commands to use less space
\makeatletter
\renewcommand{\section}{\@startsection{section}{1}{0mm}%
{-1ex plus -.5ex minus -.2ex}%
{0.5ex plus .2ex}%x
{\normalfont\large\bfseries}}
\renewcommand{\subsection}{\@startsection{subsection}{2}{0mm}%
{-1explus -.5ex minus -.2ex}%
{0.5ex plus .2ex}%
{\normalfont\normalsize\bfseries}}
\renewcommand{\subsubsection}{\@startsection{subsubsection}{3}{0mm}%
{-1ex plus -.5ex minus -.2ex}%
{1ex plus .2ex}%
{\normalfont\small\bfseries}}
\makeatother
% Define BibTeX command
\def\BibTeX{{\rm B\kern-.05em{\sc i\kern-.025em b}\kern-.08em
T\kern-.1667em\lower.7ex\hbox{E}\kern-.125emX}}
% Don't print section numbers
\setcounter{secnumdepth}{0}
\setlength{\parindent}{0pt}
\setlength{\parskip}{0pt plus 0.5ex}
%My Environments
\newtheorem{example}[section]{Example}
% -----------------------------------------------------------------------
\begin{document}
\raggedright
\footnotesize
\begin{multicols}{3}
% multicol parameters
% These lengths are set only within the two main columns
%\setlength{\columnseprule}{0.25pt}
\setlength{\premulticols}{1pt}
\setlength{\postmulticols}{1pt}
\setlength{\multicolsep}{1pt}
\setlength{\columnsep}{2pt}
\paragraph{Relationen}
Sei $R\in AxA$ binäre Relation auf A
\begin{itemize}
\item Reflexiv $\leftrightarrow \text{ xRx } \forall x \in A$
\item symmetrisch $\leftrightarrow \text{ xRy } \rightarrow \text{ yRx }$
\item Antisymmetrisch $\leftrightarrow \text{ xRy } \wedge yRx \rightarrow x=y$
\item Transitiv $\leftrightarrow \text{ xRy } \wedge \text{ yRz } \rightarrow \text{ xRz }$
\item totale Relation $\leftrightarrow \text{ xRy } \vee \text{ yRx } \forall x,y \in A$
\end{itemize}
R heißt:
\begin{itemize}
\item Äquivalenzrelation $\leftrightarrow$ reflexiv, symmetrisch und transitiv
\item Ordnung $\leftrightarrow$ reflexiv, antisymmetrisch und transitiv
\item Totalordnung $\leftrightarrow$ Ordnung und total
\item Quasiordnung $\leftrightarrow$ reflexiv und transitiv
\end{itemize}
\paragraph{Partition/Klasse}
Sei $C\wp (A)$. C heißt Partition/Klasse von A, falls gilt:
\begin{itemize}
\item $\bigcup C=A$ d.h. jedes $x\in A$ liegt in (min) einem $y\in C$
\item $\emptyset \not \in C$ d.h. jedes $y\in C$ enthält (min) ein Element von A
\item $x \cap y = \emptyset$ f.a. $x\not \in y$ aus C
\end{itemize}
\paragraph{Ordnungen}
Sei $leq$ eine Ordnung auf X. Sei $A\subseteq X, b\in X$
\begin{itemize}
\item b minimal in A $\leftrightarrow b\in A$ und $(c\leq b \rightarrow c=b f.a. c\in A)$
\item b maximal in A $\leftrightarrow b\in A$ und $(b\leq c \rightarrow b=c f.a. c\in A)$
\item b kleinstes Element in A $\leftrightarrow b\in A$ und $(b\leq c f.a. c\in A)$
\item b größtes Element in A $\leftrightarrow b\in A$ und $(c\leq b f.a. c\in A)$
\item b untere Schranke von A $\leftrightarrow b\leq c f.a. c\in A$
\item b obere Schranke von A $\leftrightarrow c\leq b f.a. c\in A$
\item b kleinste obere Schranke $\leftrightarrow$ kleinstes Element von obere Schranke; Supremum $\lor A = b$
\item b größte untere Schranke $\leftrightarrow$ größte Element von untere Schranke; Infinum $\land A = b$
\end{itemize}
\paragraph{Induktion I}
Sei $p(n)\in \mathbb{N}$. Gelte $p(0)$ und $p(n)\rightarrow p(n^{+})$ f.a. $n\in \mathbb{N}$ dann ist $p(n)$ wahr f.a. $n \in \mathbb{N}$.
\paragraph{Induktion II}
Sei $p(n)\in \mathbb{N}$, gelte $\{\forall x < n: p(x)\} \rightarrow p(n)$ f.a. $n\in \mathbb{N}$. Damit ist $p(n)$ wahr für alle $n\in \mathbb{N}$.
\section{Funktionen}
Eine Relation $f\subseteq A x B$ heißt Funktion $f:A\rightarrow B$ falls es zu jedem $x\in A$ genau ein $y\in B$ mit $(x,y)\in f$ gibt.
\begin{itemize}
\item injektiv $\leftrightarrow$ jedes y aus B hat höchstens ein Urbild $f(x)=f(y)\rightarrow x=y$
\item subjektiv $\leftrightarrow$ jedes y aus B hat wenigstens ein Urbild $f(x)=y$
\item bijektiv $\leftrightarrow$ jedes y aus B hat genau ein Urbild; injektiv und surjektiv
\end{itemize}
ist $f:A\rightarrow B$ bijektiv, so ist $f^{-1}$ eine Funktion B nach A und gleichmächtig.
\section{Gruppen, Ringe, Körper}
Eine Menge G mit einer Operation $\circ$ auf G heißt Gruppe, falls gilt:
\begin{itemize}
\item $a\circ (b\circ c) = (a\circ b)\circ c$ freie Auswertungsfolge
\item es gibt ein neutrales Element $e\in G$ mit $a\circ e=a$ und $e\circ a=a$ f.a. $a\in G$
\item $\forall a\in G \exists b\in G: \{a\circ b=e\} \vee \{b\circ a=e\}; b=a^{-1}$
\end{itemize}
kommutativ/abelsch, falls neben obigen gilt:
\begin{itemize}
\item $a\circ b = b\circ a$ f.a. $a,b \in G$
\end{itemize}
Zwei Gruppen $(G, \circ_G)$ und $(H,\circ_H)$ heißen isomorph, falls es einen Isomorphismus $(G,\circ_G)\cong (H,\circ_H)$ von $(G,\circ_G)$ nach $(H,\circ_H)$ gibt.
\paragraph{Addition \& Multiplikation}
$+: \mathbb{N} x \mathbb{N} \rightarrow \mathbb{N}$ wird definiert durch:
\begin{itemize}
\item $m+0:=m$ (0 ist neutral)
\item $m+n$ sei schon definiert
\item $m+n^+:=(m+n)^+$
\item $m*0:=0$
\item $m*n^+=m*n+m$
\item $[(a,b)]_{/\sim } + [(c,d)]_{/\sim } = [(a+c, b+d)]_{/\sim }$
\item $[(a,b)]_{/\sim } * [(c,d)]_{/\sim } = [(ac+bd, ad+bc)]_{/\sim }$
\end{itemize}
Ein Ring R ist eine Menge mit zwei Operationen $+,*: \mathbb{R} x \mathbb{R} \rightarrow \mathbb{R}$ mit:
\begin{itemize}
\item $a+(b+c) = (a+b)+c$ f.a. $a,b,c\in \mathbb{R}$
\item Es gibt ein neutrales Element $O\in \mathbb{R}$ mit $O+a=a+O=O$
\item zu jedem $a\in \mathbb{R}$ gibt es ein $-a\in \mathbb{R}$ mit $a+(-a)=-a+a=0$
\item $a+b=b+a$ f.a. $a,b\in\mathbb{R}$
\item $a*(b*c)=(a*b)*c)$ f.a. $a,b,c\in\mathbb{R}$
\item $a*(b+c)=a*b+a*c$ f.a. $a,b,c\in\mathbb{R}$
\item heißt Ring mit 1, falls: es gibt ein $1\in\mathbb{R}$ mit $a*1=1*a=a$
\item heißt kommutativ, falls: $a*b=b*a$ f.a. $a,b\in\mathbb{R}$
\item heißt Körper, falls: zu jedem $a\in\mathbb{R}$ gibt es ein $a^{-1}\in\mathbb{R}$ mit $a*a^{-1}=1$
\item Ist $\mathbb{R}$ ein Körper, so ist $\mathbb{R}*=\mathbb{R} /(0)$ mit $*$ eine abelsche Gruppe.
\item $\mathbb{Z}$ mit + und * ist ein kommutativer Ring mit $1 \not= 0$ aber kein Körper
\item $\mathbb{Q}, \mathbb{C}, \mathbb{R}$ mit + und * ist ein Körper
\end{itemize}
\paragraph{Konstruktion von rationalen Zahlen}
Definiere Operationen +,* auf $\mathbb{Q}$ wie folgt:
\begin{itemize}
\item $\frac{a}{b}+\frac{c}{d} = \frac{ad+bc}{b*d}$ (wohldefiniert)
\item $\frac{a}{b}*\frac{c}{d} = \frac{a*c}{b*d}$
\end{itemize}
\paragraph{Ring der formalen Potenzreihe}
Sei k ein Körper. Eine Folge $(a_0,...,a:n)\in K^{\mathbb{N}}$ mit Einträgen aus K heißt formale Potenzreihe $K[[x]]$.
\begin{itemize}
\item +: $(a_0,a_1,...) + (b_0,b_1,...) = (a_o+b_0, a_1+b_1, ...)$
\item *: $(a_0,a_1,...) + (b_0,b_1,...) = (c_0, c_1,...)$ mit $c_K=\sum_{j=a}^{k} a_j*b_{k-j}$
\end{itemize}
\section{Wahrscheinlichkeit}
Ein Wahrscheinlichkeitsraum ist ein Paar $(\Omega, p)$ aus einer endlichen Menge $\Omega$ und einer Funktion $p:\Omega \rightarrow [0,1]\in \mathbb{R}$
Es gilt für Ereignisse $A,B,A_1,...,A_k$:
\begin{itemize}
\item $A\subseteq B \rightarrow p(A)\leq p(B)$
\item $p(A\cup B) \rightarrow p(A)+p(B)-p(A\cap B)$
\item disjunkt($A_i \cap A_J=\emptyset$ für $i\not =j$) so gilt $p(A_1 \cup ... \cup A_k)= p(A_1)+...+p(A_k)$
\item $p(\Omega / A):=$ Gegenereignis von $A=1-p(A)$
\item $p(A_1,...,A_k) \leq p(A_1)+...+p(A_k)$
\item (stochastisch) unabhängig, falls $p(A\cap B) = p(A)*p(B)$
\end{itemize}
\paragraph{Bedingte Wahrscheinlichkeiten}
$A,B\subseteq \Omega$ für $p_B(A\cap B)= \frac{p(A\cap B)}{p(B)}:= p(A|B)$\
Erwartungswert $E(X) = \sum_{\omega \in \Omega} X(\omega)p(\omega)$\
Linearität von E: $E(x+y)=E(x)+E(y)$ und $E(\alpha x)=\alpha E(x)$\
Varianz von X: $Var(X)=E((X^2)-E(X))^2)$\
Covarianz: $Cov(X,Y)=E((X-E(X))*(Y-E(Y)))$\
Verschiebungssatz: $Cov(X,Y)=E(X*Y)-E(X)*E(Y)$\
Bernoulliverteilt falls $p(X=1)=p$ und $p(X=0)=1-p$\
Bernoulli $P=\binom{n}{k}*p^k*(1-p)^{n-k}$\
$\binom{N}{0}=(\emptyset), \binom{N}{n}={N}, \binom{n}{0}=\binom{n}{n}=1$ $\binom{n}{0}=1, \binom{n}{k}=\binom{n-1}{k-1}+\binom{n-1}{k}=\frac{n!}{k!(n-k)!}$
\paragraph{Hypergeometrische Verteilung}
Beispiel: Urne mit zwei Sorten Kugeln; N Gesamtzahl der Kugeln, M Gesamtzahl Kugeln Sorte 1, N-M Gesamtzahl Kugeln Sorte 2, $n\leq N$ Anzahl Elemente einer Stichprobe. X Anzahl der Kugeln Sorte 1 in einer zufälligen n-elementigen Stichprobe.
$p(X=k)=\frac{\binom{M}{k}\binom{N-M}{n-k}}{\binom{N}{n}}$\
$E(X)=\sum_{x=0}^M \frac{\binom{M}{k}\binom{N-M}{n-k}}{\binom{N}{n}}=n*\frac{M}{N}$\
$Var(X)=E(X^2)-E(X)^2 = n*\frac{M}{N}(1-\frac{M}{N})\binom{N-n}{N-1}$
\section{Elementare Graphentheorie}
$G=(V,E)$ heißt Graph mit Eckenmenge $V(G)=V$ und Kantenmenge $E(G)=E\subseteq {{x,y}:x\not=y \in V}$.\
Für $(a,b)\in V(G)$ heißt $d_G(a,b)=min(l: \text{ es gibt einen a,b-Weg der Länge l} )$ Abstand von a nach b.\
G heißt zusammenhängend, wenn G höchstens eine Komponente besitzt.
\begin{itemize}
\item $d_G(x,y)=0 \leftrightarrow x=y$
\item $d_G(x,y)=d_G(y,x)$
\item $d_G(x,z)\leq d_G(x,y) + d_G(y,z))$
\end{itemize}
Ein Graph ist ein Baum wenn "G ist minimal zusammenhängend und kreisfrei"
\begin{itemize}
\item G ist kreisfrei und zusammenhängend
\item G kreisfrei und $|E(G)|=|V(G)|-1$
\item G zusammenhängend und $|E(G)|=|V(G)|-1$
\end{itemize}
Breitensuchbaum von G falls $d_F(z,x)=d_G(z,x)$ f.a. $z\in V(G)$.\
Tiefensuchbaum von G falls für jede Kante zy gilt: z liegt auf dem y,x-Weg in T oder y liegt auf dem z,t-Weg in T.
\paragraph{Spannbäume minimaler Gewichte}
Sei G zuständiger Graph, $\omega:E(G)\rightarrow \mathbb{R}$; Setze $F=\emptyset$. Solange es eine Kante $e\in E(G)/F$ gibt so, dass $F \vee (e)$ kreisfrei ist, wähle e mit minimalem Gewicht $\omega(e)$, setzte $F=F\vee {e}$, iterieren. Das Verfahren endet mit einem Spannbaum $T=G(F)$ minimalen Gewichts.
\paragraph{Das Traveling Salesman Problem}
Konstruiere eine Folge$x_0,...,x_m$ mit der Eigenschaft, dass jede Kante von T genau zweimal zum Übergang benutzt wird, d.h. zu $e\in E(T)$ existieren $i\not = j$ mit $e=x_i x_{i+1}$ und $e=x_j x_{j+1}$ und zu jedem k existieren $e\in E(T)$ mit $e=x_k x_{k+1}$. Das Gewicht dieser Folge sei $\sum \omega(x_i x_{i+1})= 2\omega(T)$. Eliminiere Mehrfachnennungen in der Folge. Durch iteration erhält man einen aufspannenden Kreis mit $\omega(X) \leq 2 \omega(T)$.
\paragraph{Färbung \& bipartit}
Eine Funktion $f:V(G)\rightarrow C$ mit $|C|\leq k$ heißt k-Färbung, falls $f(x)\not = f(y)$ für $xy\in E(G)$.
Ein Graph heißt bipartit mit den Klassen A,B falls $(x\in A \wedge y\in B)\vee (x\in B \wedge y\in A)$.
Mit Bipartitheit gilt G hat ein Matching von A $\leftrightarrow |N_G(X)|\leq |X|$ für alle $X\subseteq A$.
\end{multicols}
\end{document}

File diff suppressed because it is too large Load Diff

1348
LICENSE

File diff suppressed because it is too large Load Diff

View File

@ -1,232 +1,232 @@
---
title: Neurobiologische Informationsverarbeitung
---
| | hormonal | nerval |
| -- | -- | -- |
| Informations Träger | chem. Substanz = Hormon | Potentialunterschied mit max 130 m/s, Leiter 2.Ordnung (Ionen) |
| Transport | Blut | in abgegrenzten Nervenbahnen |
| Einfluss | diffus, auf viele Empfänger gleichzeitig, Selektion durch Empfindlichkeit (broadcasting) | zu bestimmten genetisch bed. Empfängerzellen |
| Natur der Signale | sehr spezifisch, nur eine bestimmte Information wird vermittelt (Wachstumshormon) | unspezifisch, Spezialität entsteht durch Transport in def. Bahnen (Seh-/Hörbahn) |
# Rezeptoren (Sinneszellen)
Definition: Zelle, die zur Perzeption von Reizen und zur Weiterleitung der Reizinformation befähigt ist. Sie liefert Informationen über den physikalisch-chemischen Zustand der Umwelt.
Sinneszelle = Spezifiziert Nervenzelle
- primäre Sinneszelle (mit eigenem Axon)
- sekundäre Sinneszelle (ohne eigenes Axon)
# On/Off-Zentrum Nerven
!TODO
# Def: Rezeptives Feld
Das rezeptive Feld ist eine Fläche mit Rezeptoren, die bei Reizung zur Reaktion eines Neurons führen => Erzeugung Generatorpotential
# Def: Adaption
Effekt der Verminderung der Rezeptorantwort bei konstantem Reiz
- tonische Verhalten: gleichbleibende AP-Frequenz bei konst. Reiz
- phasisches Verhalten: Starker Anstieg der AP-Frequenz bei Reizänderung
- tonische Rezeptoren: nicht gewöhnend (Schmerz, Kälte)
- phasische Rezeptoren: Tastsinn, Druckrezeptoren
# Geschmacksqualitäten
süß, salzig, sauer, bitter, !!!!!!umami!!!!!
# Neuron
kann Informationen leiten und verarbeiten (empfangen können auch andere)
- Dendriten: Hauptansatz für Synapsen, räumliche und Zeitliche Summation
- räumlich: Ankommende Potentiale verschiedener Synapsen
- zeitlich: Nacheinander ankommende Potentiale an einer Synapse
- Soma: Synapsen am Soma meist hemmend
- Axon: myelinisiert oder nicht-myelinisiert
# Synapsen
chemisch <=> elektrisch (= gap junctions)\
- elektrisch:
- sehr schnell, z.B. Herzmuskelzellen
- kleiner als chemisch
- stammgeschichtlich älter
- dienen auch anderem Stoffaustausch
- chemisch:
- keine unmittelbare Weiterleitung des Aktionspotentials an einer Synapse (mehrere müssen gleichzeitig aktiv sein)
- unidirektional
- Verzögerung
- Blockierbar durch chem. Substanzen
# Gliazellen
- Astrozyten (Makroglia): Regulierung der verschiedenen Substanzkonzentrationen (z.B. Transmitterkonzentration), Zwischenspeicher, Versorgung der Nervenzellen
- Oligodentrozyten (Makroglia): Bilden Myelin im Zentralnervensystem (in der peripherie schwammscher Zellen)
- Microglis:
- wandeln sich nach Hirnverletzung zu Rekrophagen (Fresszellen) -> Abbau abgestorbener Bestandteile durch Produktion einer Mydroxilgruppe
- Leitgewebe bei Hinentwicklung
- Starke Verzweigung zur Überwachung
# Entstehung Membranpotential
Ruhepotential: ~70-90mV (Zellinneres negativ)\
1. Diffusionspotential - passiv
- Im Ruhezustand Membran permeabel für K⁺
- Gleichgewicht aus Konzentrationsgradient und Ladungsgradient
!TODO zeichnung
2. Ionenpumpen - aktiv
- Na⁺ K⁺ Pumpen
- 3Na⁺ aus der Zelle, 2K⁺ in die Zelle, jeweils gegen den Konzentrationsgrad, Verbrauch von 1 ATP zu ADP+P
- Das Ruhepotential wird aktiv aufrechterhalten -> Life-Zero-System
# Potentialänderung
- Depolarisation: Verminderung des Aktionspotentials (positiver) (Erregung, Excitation)
- Hyperpolarisation: Erhöhung des Aktionspotetials (negativer) (Hemmung, Inhibition)
Bei Erregung steigt Permeabilität für Na+ an; E_{Na⁺} angestrebt => +55mV
# gradierte Potential Änderung
- depolarisierender Reiz erhöht Permeabilität für K⁺, Na⁺, Cl⁻
- Na+ größer Antrieb nach innen aber Ionenpumpen fordern Na⁺ nach außen, solange Schranke nicht überschritten
# nicht gradierte potential Änderung
- einige Membranstrukturen reagieren auf Reiz über der Schwelle mit nicht abgestelltem Potentialsprung => AP für 1ms
- Axome, Muskelfasern, Drüsen = konduktive Membran
- "Alles oder nichts"-Gesetz: Bei Überschreitung der Schwelle AP gleicher Form und Größe, Lawineneffekt des Einstroms von Na⁺, wird gebremst von Leitfähigkeitserhöhung von K⁺ (Ausstrom)
Bedingung für AP: g_Na⁺ > g_K⁺
# Adaption
Abnahme der Spikefrequenz bei konst. Repolarisation
- ZNS: sehr schnelle Adaption, oft nur ein AP
- Peripherie: mehrere AP
# Akkomodation
Ausbleiben eines AP bei sehr langsam ansteigender Depolarisation. Na⁺ Kanäle werden inaktiv bevor g_Na⁺ > g_K⁺
# Elektrotonische Weiterleitung
passiv, mit Dekrement
- Verlust abhängig von Wiederstand
- Innen: 20-200 Ohm-cm
- Außen: 1,5-3x geringer
- Membran: 10¹⁰ Ohm-cm
- spezifischer Widerstand: !TODO!!!!!!!!!!!!!!!!!!!!!!!!!!!!!
- Membran verhält sich wie Kondensator => bei Ausbreitung des Potentials muss der Kondensator ungeladen werden -> Zeitkonstante $\tau = R_m * C_m$
- Dendriten (nur elektrotonische Ausbreitung, hohe Na+ Kanäle) werden zur Peripherie dünner, R_i steigt, \lambda sinkt
- Kabeltheorie nach Rall: Einteilung in Kompartimente mit gleichem \lambda
# Weiterleitung von APs
- konduktile Leitung ohne Dekrement
- An jeder Membranstelle neuer Erregungsvorgang mit alles oder nichts Prinzip
- Ausbreitung durch Refraktärzeit unidirektional von Reizort weg
Saltatorische Erregungsleitung: erleichterte Auslösung eines AP an den ranvierschen Schnürringen, Potential "springt" von Ring zu Ring => Raumeinsparung, Geschwindigkeitserhöhung
# Weiterleitung an Synapsen
- Na⁺ Kanäle unterliegen keiner Deaktivierung, solange aktiv wie Transmitter vorhanden ist
- Second Messenger Systeme: längerfristige Wirkung
## Ableitung
1. AP an Präsynapse
2. Ca²⁺ strömt in die Zelle -> Vesikel zu präsynaptischer Membran
3. Transmitterfreisetzung ~ AP-Folge
4. Diffusion durch den Spalt
5. Wirkung des Transmitters auf Rezeptor (Na⁺ Kanäle) der postsynaptischen Membran
6. Permeabilitätsänderung in der postsynaptischen Membran
- Na⁺, K⁺: EPSP
- K⁺, CL⁻: IPSP
7. Weiterleitung EPSP/IPSP über elektronische Leitung entlang Dendrit
8. Inaktivierung und Recykling des TP
# Beeinflussung von Synapsen
- Agomisten: gleiche Wirkung wie Transmitter, aber veränderte Eigenschaften (z.B. kein second-messenger Effekt)
- partielle Agomisten: Bindung an Rezeptor aber nur geringe Leitfähigkeitsänderung
- Antagomisten: Bindug an Rezeptor (Ionenkanal) ohne Leitfähigkeitsänderung
# Interaktion von Synapsen
- räumliche + zeitliche Integration
- räumlich: EPSP/IPSP verschiedener Synapsen, die z.B. Dendritenbaum ansetzten werden an der postsynaptischen Membran addiert
- zeitlich: die von einer oder mehreren Präsynapsen kurz nacheinander eingehenden Erregungen führen in der postsynaptischen Zelle zu EPSP/IPSP die addiert werden
- prä- und postsynaptische Hemmung
- prä: Synapse: eig. aktiv -> wird gehemmt
- hemmende Synapse ansonsten
- Bahnung: mehrere Synapsen an einem Dendriten; alle gleichzeitig aktiv, fehlt aber ein Dendrit => kein AP = Synapse bahnt Eingang der anderen
# Veränderung der Effektivität von Synapsen
- tetanische Potenzierung:
- Aktivierung einer Präsynaptische mit Reizserien führt zu einem zunehmend vergrößertem EPSP (syn. Potenzierung), der auch nach längeren Reizserien über alle Enden hinaus festbestehen kann (posttetamische Pot.) (Kurzzeitgedächtnis)
- Langzeitpotenzierung:
- Strukturelle Anpassung während des Lernens
- Prozess besteht auf Wandlungsfähigkeit der Dornen: durch Formänderung, Ab-und Aufbau werden Verb. zu reaktives Axonen gelöst und zu aktiven Fasern hergestellt
- heterosynaptische Potenzierung
- !TODO!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!
# Neuronale Verschaltungsprinzipien
## Divergenz & Konvergenz
- Divergenz: Zur Überschreitung der Schwelle ist ein erregender Eingang nötig
- Konvergenz: Zur Überschreitung der Schwelle sind drei erregende Eingänge nötig
- Divergenz und Konvergenz: gleiche Struktur, Umschaltung zwischen D. und K. über Zentralnervöse Vorgänge
## Neuronale Erregungskreis
funktionierende Einheit von miteinander verbundenen Neuronen, die sich in ihrer Aktivität gegenseitig beeinflussen
## neuronale Hemmung
- Schutz vor Informationsüberflutung
- prä- und postsynaptische Hemmung
- Vorwärtshemmung !TODO
- Rückwärtshemmung !TODO
- Streuung !TODO
- laterale Inhibition: Verschaltungsprinzip von Neuronen, bei denm Freiverschaltete Neuronen benachbarte Neuronen hemmen => Kontrastverstärkung
- TODO
- Änderung der Hemmung mit zunehmendem Abstand von benachbarten Neuron -> rezeptive Felder
# Mexican Hat
!TODO zeichnung
Übertragungsfunktion: $g(i)=m_1 e^{\frac{-r²}{B_1²} } - m_2 e^{\frac{-r²}{B_2²}}$
r: Radius RF; m: max Amplitude; B: breite Gauß; $B_2=k*B_1$
| Pass | Beschreibung | Vorraussetzung |
| -- | -- | -- |
| Tiefpass | Grenzfrequenz umso höher je kleiner B¹ | $m_2=0$ $m_1\not=0$ $B_1\not=0$ |
| Hochpass | Grenzfrequenz umso höher je kleiner B² | $m_2\not=0$ $B_1\rightarrow 0$ $B_2\not=0$ |
| Bandpass | Mittelwertunterdrückung, On-Zentrum | $K>1$, $m_1>m_2$, $m_1B_1 = m_2B_2$ |
| Bandpass | Off-Zentrum | $k>1$, §m_1< m_2$ |
$y_i=\sum_{j=1}^N K_{Sij}*x_j + \sum_{j=1}^N K_{Hij}*x_j$
$K_{Sij} \in [0,1]$ Streuung
$K_{Hij} \in [-1,1]$ Hemmung
# Neuronenmodelle
## Statische Modelle
### McCulloch & Pitts
$y=\sum_{j=1}^N \omega_j x_j -s = z$
kein Lernen, keine Erklärung für Fehlertoleranz
### statisches Neuronenmodell
$y=f(\sum_{j=1}^N \omega_jx_j -s) = f(z)$
Modellvereinfachung: Ratenmodell: Impulsfrequenz als analoge mittlere Feuerrate (keine Spikes)
## Dynamische Modelle
Approximation der Gewichtsfunktion als Alpha-Funktion, Trägheitsverhalten realisiert.
Vereinfachung der Alphafunktion: Anstieg nicht wichtig, nur verzögerter Abfall eventuell mit Überlagerung
$g(i)=\frac{t*e}{t_{peak}} e^{\frac{-t}{t_{peak}}} \Rightarrow g(i)=\frac{1}{\tau}e^{\frac{-t}{\tau}}$
## Integrate & Fire Modelle
Eingänge werden summiert, mit Schwelle verglichen und bei Überschreiten wird Spike erzeugt
- Zeit zwischen Stimulus und 1. Spike von Interesse
- Phasenlage zwischen ............. und Hintergrund-Oszillation
- Korrelation/Synchronität: Spikes anderer Neuronen als Referenz
# Lernen und Gedächtnis
## phyletisches Gedächtnis
Artgedächtnis, angeborenes, primär sensorische und motorische Bereiche der Hirnrinde, in grober Verschaltung des stammgeschichtlich älteren Teils schon bei der Geburt als Essenz der wichtigsten Erfahrungen angelegt - Extrakt der Anpassungsleistung der Art
## individuelles Gedächtnis
Baut auf phyletischem Gedächtnis auf, Sitz im Assoziationscortex, evolutionär spätere, höhere Komplexität der Netzwerke, entwickelt sich während der ganzen Kindheit und auch noch bei Erwachsenen
## prozedurales Wissen
Erwerb von Verhaltensweisen "gewusst wie" sensomotorische Intelligenz
## deklaratives Wissen
---
title: Neurobiologische Informationsverarbeitung
---
| | hormonal | nerval |
| -- | -- | -- |
| Informations Träger | chem. Substanz = Hormon | Potentialunterschied mit max 130 m/s, Leiter 2.Ordnung (Ionen) |
| Transport | Blut | in abgegrenzten Nervenbahnen |
| Einfluss | diffus, auf viele Empfänger gleichzeitig, Selektion durch Empfindlichkeit (broadcasting) | zu bestimmten genetisch bed. Empfängerzellen |
| Natur der Signale | sehr spezifisch, nur eine bestimmte Information wird vermittelt (Wachstumshormon) | unspezifisch, Spezialität entsteht durch Transport in def. Bahnen (Seh-/Hörbahn) |
# Rezeptoren (Sinneszellen)
Definition: Zelle, die zur Perzeption von Reizen und zur Weiterleitung der Reizinformation befähigt ist. Sie liefert Informationen über den physikalisch-chemischen Zustand der Umwelt.
Sinneszelle = Spezifiziert Nervenzelle
- primäre Sinneszelle (mit eigenem Axon)
- sekundäre Sinneszelle (ohne eigenes Axon)
# On/Off-Zentrum Nerven
!TODO
# Def: Rezeptives Feld
Das rezeptive Feld ist eine Fläche mit Rezeptoren, die bei Reizung zur Reaktion eines Neurons führen => Erzeugung Generatorpotential
# Def: Adaption
Effekt der Verminderung der Rezeptorantwort bei konstantem Reiz
- tonische Verhalten: gleichbleibende AP-Frequenz bei konst. Reiz
- phasisches Verhalten: Starker Anstieg der AP-Frequenz bei Reizänderung
- tonische Rezeptoren: nicht gewöhnend (Schmerz, Kälte)
- phasische Rezeptoren: Tastsinn, Druckrezeptoren
# Geschmacksqualitäten
süß, salzig, sauer, bitter, !!!!!!umami!!!!!
# Neuron
kann Informationen leiten und verarbeiten (empfangen können auch andere)
- Dendriten: Hauptansatz für Synapsen, räumliche und Zeitliche Summation
- räumlich: Ankommende Potentiale verschiedener Synapsen
- zeitlich: Nacheinander ankommende Potentiale an einer Synapse
- Soma: Synapsen am Soma meist hemmend
- Axon: myelinisiert oder nicht-myelinisiert
# Synapsen
chemisch <=> elektrisch (= gap junctions)\
- elektrisch:
- sehr schnell, z.B. Herzmuskelzellen
- kleiner als chemisch
- stammgeschichtlich älter
- dienen auch anderem Stoffaustausch
- chemisch:
- keine unmittelbare Weiterleitung des Aktionspotentials an einer Synapse (mehrere müssen gleichzeitig aktiv sein)
- unidirektional
- Verzögerung
- Blockierbar durch chem. Substanzen
# Gliazellen
- Astrozyten (Makroglia): Regulierung der verschiedenen Substanzkonzentrationen (z.B. Transmitterkonzentration), Zwischenspeicher, Versorgung der Nervenzellen
- Oligodentrozyten (Makroglia): Bilden Myelin im Zentralnervensystem (in der peripherie schwammscher Zellen)
- Microglis:
- wandeln sich nach Hirnverletzung zu Rekrophagen (Fresszellen) -> Abbau abgestorbener Bestandteile durch Produktion einer Mydroxilgruppe
- Leitgewebe bei Hinentwicklung
- Starke Verzweigung zur Überwachung
# Entstehung Membranpotential
Ruhepotential: ~70-90mV (Zellinneres negativ)\
1. Diffusionspotential - passiv
- Im Ruhezustand Membran permeabel für K⁺
- Gleichgewicht aus Konzentrationsgradient und Ladungsgradient
!TODO zeichnung
2. Ionenpumpen - aktiv
- Na⁺ K⁺ Pumpen
- 3Na⁺ aus der Zelle, 2K⁺ in die Zelle, jeweils gegen den Konzentrationsgrad, Verbrauch von 1 ATP zu ADP+P
- Das Ruhepotential wird aktiv aufrechterhalten -> Life-Zero-System
# Potentialänderung
- Depolarisation: Verminderung des Aktionspotentials (positiver) (Erregung, Excitation)
- Hyperpolarisation: Erhöhung des Aktionspotetials (negativer) (Hemmung, Inhibition)
Bei Erregung steigt Permeabilität für Na+ an; E_{Na⁺} angestrebt => +55mV
# gradierte Potential Änderung
- depolarisierender Reiz erhöht Permeabilität für K⁺, Na⁺, Cl⁻
- Na+ größer Antrieb nach innen aber Ionenpumpen fordern Na⁺ nach außen, solange Schranke nicht überschritten
# nicht gradierte potential Änderung
- einige Membranstrukturen reagieren auf Reiz über der Schwelle mit nicht abgestelltem Potentialsprung => AP für 1ms
- Axome, Muskelfasern, Drüsen = konduktive Membran
- "Alles oder nichts"-Gesetz: Bei Überschreitung der Schwelle AP gleicher Form und Größe, Lawineneffekt des Einstroms von Na⁺, wird gebremst von Leitfähigkeitserhöhung von K⁺ (Ausstrom)
Bedingung für AP: g_Na⁺ > g_K⁺
# Adaption
Abnahme der Spikefrequenz bei konst. Repolarisation
- ZNS: sehr schnelle Adaption, oft nur ein AP
- Peripherie: mehrere AP
# Akkomodation
Ausbleiben eines AP bei sehr langsam ansteigender Depolarisation. Na⁺ Kanäle werden inaktiv bevor g_Na⁺ > g_K⁺
# Elektrotonische Weiterleitung
passiv, mit Dekrement
- Verlust abhängig von Wiederstand
- Innen: 20-200 Ohm-cm
- Außen: 1,5-3x geringer
- Membran: 10¹⁰ Ohm-cm
- spezifischer Widerstand: !TODO!!!!!!!!!!!!!!!!!!!!!!!!!!!!!
- Membran verhält sich wie Kondensator => bei Ausbreitung des Potentials muss der Kondensator ungeladen werden -> Zeitkonstante $\tau = R_m * C_m$
- Dendriten (nur elektrotonische Ausbreitung, hohe Na+ Kanäle) werden zur Peripherie dünner, R_i steigt, \lambda sinkt
- Kabeltheorie nach Rall: Einteilung in Kompartimente mit gleichem \lambda
# Weiterleitung von APs
- konduktile Leitung ohne Dekrement
- An jeder Membranstelle neuer Erregungsvorgang mit alles oder nichts Prinzip
- Ausbreitung durch Refraktärzeit unidirektional von Reizort weg
Saltatorische Erregungsleitung: erleichterte Auslösung eines AP an den ranvierschen Schnürringen, Potential "springt" von Ring zu Ring => Raumeinsparung, Geschwindigkeitserhöhung
# Weiterleitung an Synapsen
- Na⁺ Kanäle unterliegen keiner Deaktivierung, solange aktiv wie Transmitter vorhanden ist
- Second Messenger Systeme: längerfristige Wirkung
## Ableitung
1. AP an Präsynapse
2. Ca²⁺ strömt in die Zelle -> Vesikel zu präsynaptischer Membran
3. Transmitterfreisetzung ~ AP-Folge
4. Diffusion durch den Spalt
5. Wirkung des Transmitters auf Rezeptor (Na⁺ Kanäle) der postsynaptischen Membran
6. Permeabilitätsänderung in der postsynaptischen Membran
- Na⁺, K⁺: EPSP
- K⁺, CL⁻: IPSP
7. Weiterleitung EPSP/IPSP über elektronische Leitung entlang Dendrit
8. Inaktivierung und Recykling des TP
# Beeinflussung von Synapsen
- Agomisten: gleiche Wirkung wie Transmitter, aber veränderte Eigenschaften (z.B. kein second-messenger Effekt)
- partielle Agomisten: Bindung an Rezeptor aber nur geringe Leitfähigkeitsänderung
- Antagomisten: Bindug an Rezeptor (Ionenkanal) ohne Leitfähigkeitsänderung
# Interaktion von Synapsen
- räumliche + zeitliche Integration
- räumlich: EPSP/IPSP verschiedener Synapsen, die z.B. Dendritenbaum ansetzten werden an der postsynaptischen Membran addiert
- zeitlich: die von einer oder mehreren Präsynapsen kurz nacheinander eingehenden Erregungen führen in der postsynaptischen Zelle zu EPSP/IPSP die addiert werden
- prä- und postsynaptische Hemmung
- prä: Synapse: eig. aktiv -> wird gehemmt
- hemmende Synapse ansonsten
- Bahnung: mehrere Synapsen an einem Dendriten; alle gleichzeitig aktiv, fehlt aber ein Dendrit => kein AP = Synapse bahnt Eingang der anderen
# Veränderung der Effektivität von Synapsen
- tetanische Potenzierung:
- Aktivierung einer Präsynaptische mit Reizserien führt zu einem zunehmend vergrößertem EPSP (syn. Potenzierung), der auch nach längeren Reizserien über alle Enden hinaus festbestehen kann (posttetamische Pot.) (Kurzzeitgedächtnis)
- Langzeitpotenzierung:
- Strukturelle Anpassung während des Lernens
- Prozess besteht auf Wandlungsfähigkeit der Dornen: durch Formänderung, Ab-und Aufbau werden Verb. zu reaktives Axonen gelöst und zu aktiven Fasern hergestellt
- heterosynaptische Potenzierung
- !TODO!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!
# Neuronale Verschaltungsprinzipien
## Divergenz & Konvergenz
- Divergenz: Zur Überschreitung der Schwelle ist ein erregender Eingang nötig
- Konvergenz: Zur Überschreitung der Schwelle sind drei erregende Eingänge nötig
- Divergenz und Konvergenz: gleiche Struktur, Umschaltung zwischen D. und K. über Zentralnervöse Vorgänge
## Neuronale Erregungskreis
funktionierende Einheit von miteinander verbundenen Neuronen, die sich in ihrer Aktivität gegenseitig beeinflussen
## neuronale Hemmung
- Schutz vor Informationsüberflutung
- prä- und postsynaptische Hemmung
- Vorwärtshemmung !TODO
- Rückwärtshemmung !TODO
- Streuung !TODO
- laterale Inhibition: Verschaltungsprinzip von Neuronen, bei denm Freiverschaltete Neuronen benachbarte Neuronen hemmen => Kontrastverstärkung
- TODO
- Änderung der Hemmung mit zunehmendem Abstand von benachbarten Neuron -> rezeptive Felder
# Mexican Hat
!TODO zeichnung
Übertragungsfunktion: $g(i)=m_1 e^{\frac{-r²}{B_1²} } - m_2 e^{\frac{-r²}{B_2²}}$
r: Radius RF; m: max Amplitude; B: breite Gauß; $B_2=k*B_1$
| Pass | Beschreibung | Vorraussetzung |
| -- | -- | -- |
| Tiefpass | Grenzfrequenz umso höher je kleiner B¹ | $m_2=0$ $m_1\not=0$ $B_1\not=0$ |
| Hochpass | Grenzfrequenz umso höher je kleiner B² | $m_2\not=0$ $B_1\rightarrow 0$ $B_2\not=0$ |
| Bandpass | Mittelwertunterdrückung, On-Zentrum | $K>1$, $m_1>m_2$, $m_1B_1 = m_2B_2$ |
| Bandpass | Off-Zentrum | $k>1$, §m_1< m_2$ |
$y_i=\sum_{j=1}^N K_{Sij}*x_j + \sum_{j=1}^N K_{Hij}*x_j$
$K_{Sij} \in [0,1]$ Streuung
$K_{Hij} \in [-1,1]$ Hemmung
# Neuronenmodelle
## Statische Modelle
### McCulloch & Pitts
$y=\sum_{j=1}^N \omega_j x_j -s = z$
kein Lernen, keine Erklärung für Fehlertoleranz
### statisches Neuronenmodell
$y=f(\sum_{j=1}^N \omega_jx_j -s) = f(z)$
Modellvereinfachung: Ratenmodell: Impulsfrequenz als analoge mittlere Feuerrate (keine Spikes)
## Dynamische Modelle
Approximation der Gewichtsfunktion als Alpha-Funktion, Trägheitsverhalten realisiert.
Vereinfachung der Alphafunktion: Anstieg nicht wichtig, nur verzögerter Abfall eventuell mit Überlagerung
$g(i)=\frac{t*e}{t_{peak}} e^{\frac{-t}{t_{peak}}} \Rightarrow g(i)=\frac{1}{\tau}e^{\frac{-t}{\tau}}$
## Integrate & Fire Modelle
Eingänge werden summiert, mit Schwelle verglichen und bei Überschreiten wird Spike erzeugt
- Zeit zwischen Stimulus und 1. Spike von Interesse
- Phasenlage zwischen ............. und Hintergrund-Oszillation
- Korrelation/Synchronität: Spikes anderer Neuronen als Referenz
# Lernen und Gedächtnis
## phyletisches Gedächtnis
Artgedächtnis, angeborenes, primär sensorische und motorische Bereiche der Hirnrinde, in grober Verschaltung des stammgeschichtlich älteren Teils schon bei der Geburt als Essenz der wichtigsten Erfahrungen angelegt - Extrakt der Anpassungsleistung der Art
## individuelles Gedächtnis
Baut auf phyletischem Gedächtnis auf, Sitz im Assoziationscortex, evolutionär spätere, höhere Komplexität der Netzwerke, entwickelt sich während der ganzen Kindheit und auch noch bei Erwachsenen
## prozedurales Wissen
Erwerb von Verhaltensweisen "gewusst wie" sensomotorische Intelligenz
## deklaratives Wissen
Erwerb von Wissen "gewusst was" kognitive Intelligenz

File diff suppressed because it is too large Load Diff

File diff suppressed because it is too large Load Diff

View File

@ -1,38 +1,39 @@
# Informatik
Unterlagen zu Informatik Vorlesungen der TU Ilmenau
> Kein Mensch kann Wissen besitzen. Wissen ist frei und muss weitergegeben werden
bisher:
- [Algorithmen und Datenstrukturen](Algorithmen%20und%20Datenstrukturen.md)
- [Einführung in die Medizinische Informatik](Einführung%20in%20die%20Medizinische%20Informatik.md)
- [Grundlagen und diskrete Strukturen](Grundlagen%20und%20Diskrete%20Strukturen.md)
- [GudS - Cheatsheet](Grundlagen%20und%20Diskrete%20Strukturen%20-%20Cheatsheet.pdf)
- [GudS - Short Paper](Grundlagen%20und%20Diskrete%20Strukturen%20-%20short.pdf)
- [Neurobiologische Informationsverarbeitung](Neurobiologische%20Informationsverarbeitung.md)
- [Neuroinformatik](Neuroinformatik.md)
- [Programmierparadigmen](Programmierparadigmen.md)
- [Rechnerarchitekturen 1](Rechnerarchitekturen%201.md)
- [Telematik 1](Telematik%201.md)
- [Telematik Cheatsheet](Telematik1-cheatsheet.pdf)
Keine Garantie auf Vollständigkeit/Korrektheit! Hilf uns Fehler zu korrigieren und noch weitere Fächer abzudecken.
## Verwendung
Alle Dokumente werden in Markdown (bevorzugt) oder LaTex geschrieben. Bilder etc erhalten einen eigenen Ordner "Assets". Bei Fragen zu Markdown könnt ihr Google fragen, Cheatsheets lesen (da steht meistens alles drauf) oder im Notfall den Admin fragen.
Dieses Repo ist zum Selbststudium und erlernen neuen Wissens gedacht. Kein Inhalt oder Teile dieses Repositories darf kommerziell verwendet werden. Es steht frei zu Teilen, Klonen und Mitzuarbeiten.
Wir freuen uns über jeden der mitmacht.
## Mitmachen
- Erstelle ein 'issue'. Gehe davor die offene 'issues' durch. (Oder überlege dir welches Fach noch fehlt)
- Klone das repository oder erstelle einen Fork: ```git clone https://github.com/wieerwill/Informatik.git```
- Erstelle deinen eigenen feature branch: ```git checkout -b my-new-feature```
- Stelle deine Änderungen bereit: ```git commit -m "Add some feature"``` (in "" kommt dein Kommentar)
- Lade auf deinen Branch hoch: ```git push origin your-new-feature```
- Erstelle ein 'pull request' damit deine Änderungen in diesem Repository übernommen werden.
## Bild- und Textrechte
Der Inhalt aller Dokumente hier ist die Mitschrift aus besuchten Vorlesungen. Es werden keine Bücher kopiert oder anderweitig Copyright verletzt. Die Verletzung des Copyright oder anderer Rechte Dritte wird mit einem Ausschluss aus dem Repository gehandelt. Sollte Ihnen ein Verstoß auffallen geben Sie uns bitte umgehend bescheid, wir werden jedem Fall nachgehen.
Bilder werden zum Großteil von uns selbst erstellt oder unter ausführlicher Quellangabe verwendet.
## Lizenz
Dieses Repository und sein Inhalt sind unter der GNU GENERAL PUBLIC LICENSE Version 3 veröffentlicht. Was das bedeutet könnt ihr [hier](LICENSE) nachlesen.
# Informatik
Unterlagen zu Informatik Vorlesungen der TU Ilmenau
> Kein Mensch kann Wissen besitzen. Wissen ist frei und muss weitergegeben werden
bisher:
- [Algorithmen und Datenstrukturen](Algorithmen%20und%20Datenstrukturen.md)
- [Einführung in die Medizinische Informatik](Einführung%20in%20die%20Medizinische%20Informatik.md)
- [Grundlagen und diskrete Strukturen](Grundlagen%20und%20Diskrete%20Strukturen.md)
- [GudS - Cheatsheet](Grundlagen%20und%20Diskrete%20Strukturen%20-%20Cheatsheet.pdf)
- [GudS - Short Paper](Grundlagen%20und%20Diskrete%20Strukturen%20-%20short.pdf)
- [Neurobiologische Informationsverarbeitung](Neurobiologische%20Informationsverarbeitung.md)
- [Neuroinformatik](Neuroinformatik.md)
- [Programmierparadigmen](Programmierparadigmen.md)
- [Rechnerarchitekturen 1](Rechnerarchitekturen%201.md)
- [Stochastik](Stochastik.md)
- [Telematik 1](Telematik%201.md)
- [Telematik Cheatsheet](Telematik1-cheatsheet.pdf)
Keine Garantie auf Vollständigkeit/Korrektheit! Hilf uns Fehler zu korrigieren und noch weitere Fächer abzudecken.
## Verwendung
Alle Dokumente werden in Markdown (bevorzugt) oder LaTex geschrieben. Bilder etc erhalten einen eigenen Ordner "Assets". Bei Fragen zu Markdown könnt ihr Google fragen, Cheatsheets lesen (da steht meistens alles drauf) oder im Notfall den Admin fragen.
Dieses Repo ist zum Selbststudium und erlernen neuen Wissens gedacht. Kein Inhalt oder Teile dieses Repositories darf kommerziell verwendet werden. Es steht frei zu Teilen, Klonen und Mitzuarbeiten.
Wir freuen uns über jeden der mitmacht.
## Mitmachen
- Erstelle ein 'issue'. Gehe davor die offene 'issues' durch. (Oder überlege dir welches Fach noch fehlt)
- Klone das repository oder erstelle einen Fork: ```git clone https://github.com/wieerwill/Informatik.git```
- Erstelle deinen eigenen feature branch: ```git checkout -b my-new-feature```
- Stelle deine Änderungen bereit: ```git commit -m "Add some feature"``` (in "" kommt dein Kommentar)
- Lade auf deinen Branch hoch: ```git push origin your-new-feature```
- Erstelle ein 'pull request' damit deine Änderungen in diesem Repository übernommen werden.
## Bild- und Textrechte
Der Inhalt aller Dokumente hier ist die Mitschrift aus besuchten Vorlesungen. Es werden keine Bücher kopiert oder anderweitig Copyright verletzt. Die Verletzung des Copyright oder anderer Rechte Dritte wird mit einem Ausschluss aus dem Repository gehandelt. Sollte Ihnen ein Verstoß auffallen geben Sie uns bitte umgehend bescheid, wir werden jedem Fall nachgehen.
Bilder werden zum Großteil von uns selbst erstellt oder unter ausführlicher Quellangabe verwendet.
## Lizenz
Dieses Repository und sein Inhalt sind unter der GNU GENERAL PUBLIC LICENSE Version 3 veröffentlicht. Was das bedeutet könnt ihr [hier](LICENSE) nachlesen.

View File

@ -1,156 +1,156 @@
# Grundprinzipien
- Ein- und Ausgabe
- Programmspeicher
- Datenspeicher
Unterschieden in:
- Harvard Architektur: direkt mit Prozessor verbunden
- Princeton-Architektur (von-Neumann-Architektur): über Systembus verbunden
## Eigenschaften
Fast alle der heute üblichen Rechner gehen auf folgende Eigenschaften zurück:
1. Die Rechenanlage besteht aus den Funktionseinheiten Speicher, Steuerwerk (engl. controller), dem Rechenwerk (engl. data path) und Ein-/Ausgabe-Einheiten.
2. Die Struktur der Anlage ist unabhängig vom bearbeiteten Problem. Die Anlage ist speicherprogrammierbar.
3. Der Speicher wird in Zellen gleicher Größe geteilt. Die Zellnummern heißen Adressen.
4. Das Programm besteht aus einer Folge von elementaren Befehlen, die in der Reihenfolge der Speicherung bearbeitet werden.
5. Abweichungen von der Reihenfolge sind mit (bedingten oder unbedingten) Sprungbefehlen möglich.
6. Es werden Folgen von Binärzeichen (nachfolgend Bitvektoren genannt) verwendet, um alle Größen darzustellen.
7. Die Bitvektoren erlauben keine explizite Angabe des repräsentierten Typs. Aus dem Kontext heraus muss stets klar sein, wie die Bitvektoren zu interpretieren sind.
# Befehlssatz
Adressierung ohne Speicherzugriff
- Registeradressierung: ausschließlich Operanden aus & Ziele in Registern
- Unmittelbare Adressierung, Direktoperanden, immediate addressing: Operanden sind Teil des Befehlsworts
- Direkte Adressierung, absolute Adressierung: Adresse ist ausschließlich im Befehlswort enthalten
- Register-indirekte Adressierung: Adresse ist ausschließlich im Register enthalten
- Varianten: pre/post-increment/decrement zur Realisierung von Stapeloperationen
- Relative Adressierung, indizierte Adressierung, Basis-Adressierung: Adresse ergibt sich aus der Addition eines Registerinhalts und einer Konstanten im Befehl
## n-Adressmaschinen
Klassifikation von Befehlssätzen bzw. Befehlen nach der Anzahl der Adressen bei 2-stelligen Arithmetik-Befehlen
- 3-Adressmaschinen: Operanden und Ziel einer Operation werden explizit angegeben
- 2-Adressmaschinen: Überschreiben eines Operanden mit dem Ergebnis
- 1 12-Adressmaschinen: wie 2-Adressmaschinen, nur unter Verwendung von Registern
- 1-Adressmaschinen: Nutzung von nur 1 Register
- 0-Adressmaschinen: Kellermaschinen
## Programmiermodelle, Instruction Set Architectures (ISAs)
Klassifikation von Befehlssätzen nach der Gestaltung/Ausprägung der
vorhandenen Maschinenbefehle
- CISC Complex Instruction Set Computers
- Relativ kompakte Codierung von Programmen
- Für jeden Befehl wurden mehrere Taktzyklen benötigt. Die Anzahl der Zyklen pro Befehl war groß
- (Mikro-) Programm zur Interpretation der Befehle nötig
- Compiler konnten viele Befehle gar nicht nutzen
- RISC Reduced Instruction Set Computers
- Wenige, einfache Befehle
- Hohe Ausführungsgeschwindigkeit
- durch kleine Anzahl von Taktzyklen pro Befehl
- durch Fließbandverarbeitung (siehe später)
- Programmlaufzeit = Anzahl auszuführender Befehle * CPI-Wert * Dauer eines Taktzyklus
- Eigenschaften
- feste Befehlswortlänge
- LOAD/STORE-Architektur
- einfache Adressierungsarten
- „semantische Lücke“ zwischen Hochsprachen & Assemblerbefehlen durch Compiler überbrückt
- statt aufwändiger Hardware zur Beseitigung von Besonderheiten (z.B. 16-Bit Konstanten) wird diese Aufgabe der Software übertragen
- rein in Hardware realisierbar, keine Mikroprogrammierung
## Technologien zum Speichern von Daten
- Arten
- **Modifikation von Strukturen**: Lochkarte, Schallplatte
- **Rückkopplung**: Flip-Flops, SRAM
- **Elektrische Ladungen**: Kondensator, DRAM
- **Magnetismus**: Magnetkernspeicher, Magnetband, Diskette, Festplatte
- **Optik**: Bar-Codes, CD-ROM, DVD
- Vergleichskriterien
- Kapazität
- Energiebedarf
- Geschwindigkeit
- Robustheit
- Speicherdichte
- Kosten
- Zugriffsmethoden
- Sequentieller Zugriff
- Zugriffszeit ist abhängig vom Speicherort und vom vorherigen Zugriff
- Beispiele: Magnetbänder, Festplatten, CD-ROM, DVD, BluRay
- Bei Plattenspeicher schneller Zugriff durch Überspringen von Spuren
- Wahlfreier Zugriff
- Zugriffszeit ist unabhängig vom Speicherort und vom vorherigen Zugriff
- Eindeutige Adresse identifiziert den Speicherort
- RAM (Random Access Memory)
- Einteilung des Speichers in
- Flüchtigen Speicher
- Informationen gehen nach Ausschalten der Versorgungsspannung verloren!
- Register innerhalb des Prozessors
- Static RAM (SRAM) für Caches
- Dynamic RAM (DRAM) für den Arbeitsspeicher
- Nichtflüchtige Speicher:
- Informationen bleiben auch ohne Versorgungsspannung über längere Zeit (typischerweise einige Jahre) erhalten!
- Beispiele: Flash, Magnetspeicher (Festplatte, Disketten, Magnetbänder)
- Bei einem ROM (Read Only Memory) ist nur lesender Zugriff möglich
Zweierpotenzen
- 1 KibiByte = 1 KiB = 1024 Bytes = 2^10 Bytes
- 1 MebiByte = 1 MiB = 1024 KiB = 2^20 Bytes = 1.048.576 Bytes
- 1 GibiByte = 1 GiB = 1024 MiB = 2^30 Bytes = 1.073.741.824 Bytes
- 1 TebiByte = 1 TiB = 1024 GiB = 2^40 Bytes = 1.099.511.627.776 Bytes
## Blocktransfer (Burst)
Auslesen des kompletten Zeilenpuffers durch automatisches Inkrementieren der Spaltenadresse
## Cache
= schneller Speicher, der vor einen größeren, langsamen Speicher geschaltet wird
- Im weiteren Sinn: Puffer zur Aufnahme häufig benötigter Daten
- Für Daten die schon mal gelesen wurden oder in der Nähe von diesen liegen
- 90% der Zeit verbringt ein Programm in 10% des Codes
- Im engeren Sinn: Puffer zwischen Hauptspeicher und Prozessor
- Ursprung: cacher (frz.) verstecken („versteckter Speicher“)
Organisation von Caches
- Prüfung anhand der Adresse, ob benötigte Daten im Cache vorhanden sind („Treffer“; cache hit)
- Falls nicht (cache miss): Zugriff auf den (Haupt-) Speicher, Eintrag in den Cache
# Ein- und Ausgabe
## Übertragungsprotokolle
- Synchrone Busse
- Keine Rückmeldung bei der Übertragung
- Unidirektionales Timing
- Asynchrone Busse
- Rückmeldung der Datenannahme
- Bidirektionales Timing
| | unidirektional | bidirektional |
| -- | -- | -- |
| Beschreibung | Kommunikationspartner verlassen sich darauf, dass Partner innerhalb festgelegter Zeit reagieren. | Kommunikationspartner bestätigen per Kontrollsignal (senden ein acknowledgment), dass sie in der erwarteten Weise reagiert haben. |
| Vorteile | einfach; bei konstanten Antwortzeiten schnell | passt sich unterschiedlichen Geschwindigkeiten an; hoher Grad an Flusskontrolle möglich |
| Nachteile | Kommunikationspartner muss in bestimmter Zeit | antworten komplexer; Zeitüberwachung notwendig; evtl. langsam |
| Einsatzgebiet | synchrone Busse, Speicherbusse | asynchrone Busse, E/A- und Peripheriebusse |
Programmierbarer Interrupt Controller (PIC)
# Prozessorergänzung
## Prozessor-Leistung
Leistung = (Durchschnitts-)Befehle pro Zeit\
Berechnung: $L=\frac{IPC}{t_{cycle}}$ mit $IPC = \frac{1}{CPI}$ und $CPI = \sum t_i *p_i$
- IPC: Instructions Per Cycle (Anzahl Durchschnittsbefehle pro Taktzyklus)
- CPI: Cycles Per Instruction (Mittlere Anzahl Taktzyklen pro Befehl)
- $t_i$ : Anzahl Taktzyklen des i-ten Befehls
- $p_i$ : Relative Häufigkeit des i-ten Befehls
- $t_cycle$ : Taktzykluszeit [$μs$]
## Befehlspalette
Pipelining: Fließbandverarbeitung (seriell vs parallel)
- IF / ID / EX: Befehl lesen / dekodieren / ausführen
- OF / WB: Operand lesen / schreiben (Register)
- Probleme: Unterschiedliche Phasenlänge, bedingte Sprünge, Datenabhängigkeiten
Superskalare Architektur: \
Befehl lesen -> Befehl dekodieren -> Operand lesen -> Befehl ausführen -> Operand schreiben
dRam: mit Kondensator\
sRam: mit FlipFlop\
RAM: Random Access Memory\
ROM: Read Only Memory\
# Grundprinzipien
- Ein- und Ausgabe
- Programmspeicher
- Datenspeicher
Unterschieden in:
- Harvard Architektur: direkt mit Prozessor verbunden
- Princeton-Architektur (von-Neumann-Architektur): über Systembus verbunden
## Eigenschaften
Fast alle der heute üblichen Rechner gehen auf folgende Eigenschaften zurück:
1. Die Rechenanlage besteht aus den Funktionseinheiten Speicher, Steuerwerk (engl. controller), dem Rechenwerk (engl. data path) und Ein-/Ausgabe-Einheiten.
2. Die Struktur der Anlage ist unabhängig vom bearbeiteten Problem. Die Anlage ist speicherprogrammierbar.
3. Der Speicher wird in Zellen gleicher Größe geteilt. Die Zellnummern heißen Adressen.
4. Das Programm besteht aus einer Folge von elementaren Befehlen, die in der Reihenfolge der Speicherung bearbeitet werden.
5. Abweichungen von der Reihenfolge sind mit (bedingten oder unbedingten) Sprungbefehlen möglich.
6. Es werden Folgen von Binärzeichen (nachfolgend Bitvektoren genannt) verwendet, um alle Größen darzustellen.
7. Die Bitvektoren erlauben keine explizite Angabe des repräsentierten Typs. Aus dem Kontext heraus muss stets klar sein, wie die Bitvektoren zu interpretieren sind.
# Befehlssatz
Adressierung ohne Speicherzugriff
- Registeradressierung: ausschließlich Operanden aus & Ziele in Registern
- Unmittelbare Adressierung, Direktoperanden, immediate addressing: Operanden sind Teil des Befehlsworts
- Direkte Adressierung, absolute Adressierung: Adresse ist ausschließlich im Befehlswort enthalten
- Register-indirekte Adressierung: Adresse ist ausschließlich im Register enthalten
- Varianten: pre/post-increment/decrement zur Realisierung von Stapeloperationen
- Relative Adressierung, indizierte Adressierung, Basis-Adressierung: Adresse ergibt sich aus der Addition eines Registerinhalts und einer Konstanten im Befehl
## n-Adressmaschinen
Klassifikation von Befehlssätzen bzw. Befehlen nach der Anzahl der Adressen bei 2-stelligen Arithmetik-Befehlen
- 3-Adressmaschinen: Operanden und Ziel einer Operation werden explizit angegeben
- 2-Adressmaschinen: Überschreiben eines Operanden mit dem Ergebnis
- 1 12-Adressmaschinen: wie 2-Adressmaschinen, nur unter Verwendung von Registern
- 1-Adressmaschinen: Nutzung von nur 1 Register
- 0-Adressmaschinen: Kellermaschinen
## Programmiermodelle, Instruction Set Architectures (ISAs)
Klassifikation von Befehlssätzen nach der Gestaltung/Ausprägung der
vorhandenen Maschinenbefehle
- CISC Complex Instruction Set Computers
- Relativ kompakte Codierung von Programmen
- Für jeden Befehl wurden mehrere Taktzyklen benötigt. Die Anzahl der Zyklen pro Befehl war groß
- (Mikro-) Programm zur Interpretation der Befehle nötig
- Compiler konnten viele Befehle gar nicht nutzen
- RISC Reduced Instruction Set Computers
- Wenige, einfache Befehle
- Hohe Ausführungsgeschwindigkeit
- durch kleine Anzahl von Taktzyklen pro Befehl
- durch Fließbandverarbeitung (siehe später)
- Programmlaufzeit = Anzahl auszuführender Befehle * CPI-Wert * Dauer eines Taktzyklus
- Eigenschaften
- feste Befehlswortlänge
- LOAD/STORE-Architektur
- einfache Adressierungsarten
- „semantische Lücke“ zwischen Hochsprachen & Assemblerbefehlen durch Compiler überbrückt
- statt aufwändiger Hardware zur Beseitigung von Besonderheiten (z.B. 16-Bit Konstanten) wird diese Aufgabe der Software übertragen
- rein in Hardware realisierbar, keine Mikroprogrammierung
## Technologien zum Speichern von Daten
- Arten
- **Modifikation von Strukturen**: Lochkarte, Schallplatte
- **Rückkopplung**: Flip-Flops, SRAM
- **Elektrische Ladungen**: Kondensator, DRAM
- **Magnetismus**: Magnetkernspeicher, Magnetband, Diskette, Festplatte
- **Optik**: Bar-Codes, CD-ROM, DVD
- Vergleichskriterien
- Kapazität
- Energiebedarf
- Geschwindigkeit
- Robustheit
- Speicherdichte
- Kosten
- Zugriffsmethoden
- Sequentieller Zugriff
- Zugriffszeit ist abhängig vom Speicherort und vom vorherigen Zugriff
- Beispiele: Magnetbänder, Festplatten, CD-ROM, DVD, BluRay
- Bei Plattenspeicher schneller Zugriff durch Überspringen von Spuren
- Wahlfreier Zugriff
- Zugriffszeit ist unabhängig vom Speicherort und vom vorherigen Zugriff
- Eindeutige Adresse identifiziert den Speicherort
- RAM (Random Access Memory)
- Einteilung des Speichers in
- Flüchtigen Speicher
- Informationen gehen nach Ausschalten der Versorgungsspannung verloren!
- Register innerhalb des Prozessors
- Static RAM (SRAM) für Caches
- Dynamic RAM (DRAM) für den Arbeitsspeicher
- Nichtflüchtige Speicher:
- Informationen bleiben auch ohne Versorgungsspannung über längere Zeit (typischerweise einige Jahre) erhalten!
- Beispiele: Flash, Magnetspeicher (Festplatte, Disketten, Magnetbänder)
- Bei einem ROM (Read Only Memory) ist nur lesender Zugriff möglich
Zweierpotenzen
- 1 KibiByte = 1 KiB = 1024 Bytes = 2^10 Bytes
- 1 MebiByte = 1 MiB = 1024 KiB = 2^20 Bytes = 1.048.576 Bytes
- 1 GibiByte = 1 GiB = 1024 MiB = 2^30 Bytes = 1.073.741.824 Bytes
- 1 TebiByte = 1 TiB = 1024 GiB = 2^40 Bytes = 1.099.511.627.776 Bytes
## Blocktransfer (Burst)
Auslesen des kompletten Zeilenpuffers durch automatisches Inkrementieren der Spaltenadresse
## Cache
= schneller Speicher, der vor einen größeren, langsamen Speicher geschaltet wird
- Im weiteren Sinn: Puffer zur Aufnahme häufig benötigter Daten
- Für Daten die schon mal gelesen wurden oder in der Nähe von diesen liegen
- 90% der Zeit verbringt ein Programm in 10% des Codes
- Im engeren Sinn: Puffer zwischen Hauptspeicher und Prozessor
- Ursprung: cacher (frz.) verstecken („versteckter Speicher“)
Organisation von Caches
- Prüfung anhand der Adresse, ob benötigte Daten im Cache vorhanden sind („Treffer“; cache hit)
- Falls nicht (cache miss): Zugriff auf den (Haupt-) Speicher, Eintrag in den Cache
# Ein- und Ausgabe
## Übertragungsprotokolle
- Synchrone Busse
- Keine Rückmeldung bei der Übertragung
- Unidirektionales Timing
- Asynchrone Busse
- Rückmeldung der Datenannahme
- Bidirektionales Timing
| | unidirektional | bidirektional |
| -- | -- | -- |
| Beschreibung | Kommunikationspartner verlassen sich darauf, dass Partner innerhalb festgelegter Zeit reagieren. | Kommunikationspartner bestätigen per Kontrollsignal (senden ein acknowledgment), dass sie in der erwarteten Weise reagiert haben. |
| Vorteile | einfach; bei konstanten Antwortzeiten schnell | passt sich unterschiedlichen Geschwindigkeiten an; hoher Grad an Flusskontrolle möglich |
| Nachteile | Kommunikationspartner muss in bestimmter Zeit | antworten komplexer; Zeitüberwachung notwendig; evtl. langsam |
| Einsatzgebiet | synchrone Busse, Speicherbusse | asynchrone Busse, E/A- und Peripheriebusse |
Programmierbarer Interrupt Controller (PIC)
# Prozessorergänzung
## Prozessor-Leistung
Leistung = (Durchschnitts-)Befehle pro Zeit\
Berechnung: $L=\frac{IPC}{t_{cycle}}$ mit $IPC = \frac{1}{CPI}$ und $CPI = \sum t_i *p_i$
- IPC: Instructions Per Cycle (Anzahl Durchschnittsbefehle pro Taktzyklus)
- CPI: Cycles Per Instruction (Mittlere Anzahl Taktzyklen pro Befehl)
- $t_i$ : Anzahl Taktzyklen des i-ten Befehls
- $p_i$ : Relative Häufigkeit des i-ten Befehls
- $t_cycle$ : Taktzykluszeit [$μs$]
## Befehlspalette
Pipelining: Fließbandverarbeitung (seriell vs parallel)
- IF / ID / EX: Befehl lesen / dekodieren / ausführen
- OF / WB: Operand lesen / schreiben (Register)
- Probleme: Unterschiedliche Phasenlänge, bedingte Sprünge, Datenabhängigkeiten
Superskalare Architektur: \
Befehl lesen -> Befehl dekodieren -> Operand lesen -> Befehl ausführen -> Operand schreiben
dRam: mit Kondensator\
sRam: mit FlipFlop\
RAM: Random Access Memory\
ROM: Read Only Memory\

47
Stochastik.md Normal file
View File

@ -0,0 +1,47 @@
---
title: Stochastik
date: Wintersemester 20/21
author: Wieerwill
---
# Stochastik ist
- Wahrscheinlichkeitstheorie: mathematische "Sprache" zur Modellierung zufälliger Phänomene
- Ziel: über gegebene Eigenschaften des Systems präzise Aussagen über zukünftige, zufällige Beobachtungen
- und Statistik:
- Beschreibung beobachteter Daten
- Schätzen unbekannter Parameter
- Testen von Hypothesen
- Vorhersagen unbeobachteter zufälliger Werte
- Modellwahl und -überprüfung
- Ziel: basierend auf zufälligen Beobachtungen auf Eigenschaften des Systems“ schließen
## Wahrscheinlichkeiten
### Wahrscheinlichkeitsraum $(\Omega , P)$
- $\Omega$: Grundraum, Menge der Elementarereignisse (oder Ausgänge) (Bsp: $\Omega={heil, kaputt}^x$)
- $\omega \in \Omega$: Elementarereignis, Ausgang (Bsp: $\omega=(heil, heil, heil, kaputt, heil...)$)
- $A \subseteq \Omega$: Ereignis (Bsp: $A={\omega: Anzahl kaputt = 2 }$)
- $P$: Wahrscheinlichkeitsmaß, d.h.
- Wahrscheinlichkeit, dass A eintritt: $\Omega \supseteq A \rightarrow P(A) \in [0,1]$
- $\sigma$-Additivität: $P(U_{k\in N} A_k)= \sum_{k\in N} P(A_k)$ für disjunkte $A_k, k\in N$
- sicheres Ereignis $\Omega$: $P(\Omega)= 1$
## Laplace Expriment
$\Omega$ sei eindlich und $P(\omega)=\frac{1}{*\Omega} \rightarrow$ Laplace-Verteilung oder diskrete Gleichverteilung $\rightarrow$ für $A \subseteq \Omega: P(A)=\sum_{\omega \in A} P(\omega)=\frac{*A}{*\Omega}=\frac{\text{Anzahl "günstige" Ausgänge"}}{\text{Anzahl "alle" Ausgänge}}$
Laplace-Verteilung: Alle Ausgänge sind gleichwahrscheinlich $\rightarrow$ Symmetrie
## Urnenmodell
Eine Urne enthält schwarze (S) und weiße (W) Kugeln, insgesamt also $N=S+W$. Man zieht zufällig eine Kugel und nummeriert durch.
- P(i-te Kugel wird gezogen)= $\frac{1}{N}$ für $i=1,..,N$
- P(Kugel ist schwarz)=$\sum_{i=1}^S P(\text{i-te Kugel wird gezogen}) = S \frac{1}{N}=\frac{S}{N}$
### Ziehen ohne zurücklegen
Was, wenn man noch eine Kugel zieht (ohne Zurücklegen)?
$\rightarrow$ Zweistufiges Experiment! Modellieren mit bedingten Wahrscheinlichkeiten.
## Bedingte Wahrscheinlichkeiten
$A,B \subseteq \Omega$ mit $P(B)> 0$; man beobachtet, dass B eintritt
die bedingte Wahrscheinlichkeit von "A gegeben B": $P(A|B)=\frac{P(A \cap B)}{P(B)}$
die totale Wahrscheinlichkeit: $P(A)=\sum_{i=1}^n P(A|B_i)P(B_i)$

File diff suppressed because it is too large Load Diff

File diff suppressed because it is too large Load Diff