Informatik/Rechnerarchitekturen 2 - Cheatsheet.tex

882 lines
46 KiB
TeX

\documentclass[10pt,landscape]{article}
\usepackage[ngerman]{babel}
\usepackage{multicol}
\usepackage{calc}
\usepackage{ifthen}
\usepackage[landscape]{geometry}
\usepackage{amsmath,amsthm,amsfonts,amssymb}
\usepackage{color,graphicx,overpic}
\usepackage{hyperref}
\usepackage{listings}
\usepackage[compact]{titlesec} %less space for headers
\usepackage{mdwlist} %less space for lists
\pdfinfo{
/Title (Rechnerarchitekturen 2 - Cheatsheet)
/Creator (TeX)
/Producer (pdfTeX 1.40.0)
/Author (Robert Jeutter)
/Subject ()
}
% This sets page margins to .5 inch if using letter paper, and to 1cm
% if using A4 paper. (This probably isn't strictly necessary.)
% If using another size paper, use default 1cm margins.
\ifthenelse{\lengthtest { \paperwidth = 11in}}
{ \geometry{top=.5in,left=.5in,right=.5in,bottom=.5in} }
{\ifthenelse{ \lengthtest{ \paperwidth = 297mm}}
{\geometry{top=1cm,left=1cm,right=1cm,bottom=1cm} }
{\geometry{top=1cm,left=1cm,right=1cm,bottom=1cm} }
}
% Turn off header and footer
\pagestyle{empty}
% Redefine section commands to use less space
\makeatletter
\renewcommand{\section}{\@startsection{section}{1}{0mm}%
{-1ex plus -.5ex minus -.2ex}%
{0.5ex plus .2ex}%x
{\normalfont\large\bfseries}}
\renewcommand{\subsection}{\@startsection{subsection}{2}{0mm}%
{-1explus -.5ex minus -.2ex}%
{0.5ex plus .2ex}%
{\normalfont\normalsize\bfseries}}
\renewcommand{\subsubsection}{\@startsection{subsubsection}{3}{0mm}%
{-1ex plus -.5ex minus -.2ex}%
{1ex plus .2ex}%
{\normalfont\small\bfseries}}
\makeatother
% Define BibTeX command
\def\BibTeX{{\rm B\kern-.05em{\sc i\kern-.025em b}\kern-.08em
T\kern-.1667em\lower.7ex\hbox{E}\kern-.125emX}}
% Don't print section numbers
\setcounter{secnumdepth}{0}
\setlength{\parindent}{0pt}
\setlength{\parskip}{0pt plus 0.5ex}
% compress space
\setlength\abovedisplayskip{0pt}
\setlength{\parskip}{0pt}
\setlength{\parsep}{0pt}
\setlength{\topskip}{0pt}
\setlength{\topsep}{0pt}
\setlength{\partopsep}{0pt}
\linespread{0.5}
\titlespacing{\section}{0pt}{*0}{*0}
\titlespacing{\subsection}{0pt}{*0}{*0}
\titlespacing{\subsubsection}{0pt}{*0}{*0}
%My Environments
\newtheorem{example}[section]{Example}
% -----------------------------------------------------------------------
\begin{document}
\begin{multicols}{2}
\footnotesize
\begin{description*}
\item[Ausführungszeit] $t[s]=\frac{\text{Taktzyklen [Takte]}}{\text{Frequenz [Hz]}} =\frac{C}{f}$
\item[Leistung absolut] $L_{abs}[MIPS]=\frac{\text{Befehlsanzahl}}{\text{Ausführungszeit [s]}*10^6}=\frac{n}{t*10^6}$
\item[Leistung relativ] $L_{rel}[MIPS]=\frac{\text{Referenzzeit [s]}}{\text{Ausführungszeit [s]}}*\text{RefLeistung [MIPS]} = \frac{t_{ref}}{t_mess}*L_{ref}$
\item[Clocks per Instruction] $CPI=\frac{\text{Taktzyklen [Takte]}}{\text{Befehlsanzahl}} =\frac{C}{n}$
\item[Gewichtete mittlere] $CPI_{G}=\sum (CPI_{Bef.gr.}*\text{Rel.Häufigkeit}_{Bef.gr.})=\sum_{i=1}^n(CPI_i*p_i)$
\item[Instructions per Clock] $IPC=\frac{Befehlsanzahl}{\text{Taktzyklen [Takt]}}=\frac{n}{C}$
\item[Speedup] $S_n=\frac{1}{AnteilSeriell + Overhead + \frac{AnteilParallel}{AnzahlProzessoren}}=\frac{1}{ A_{seriell} + o(n) + \frac{ A_{parallel} }{ n }}$
\item[Effizienz] $E_n=\frac{Speedup}{AnzahlProzessoren}=\frac{S_n}{n}$
\end{description*}
\end{multicols}
\centering{
\begin{tabular}{l | c | c | c | c | c}
Bezeichnung & Konflikterkennung & Issue-Struktur & Scheduling & Hauptmerkmal & Beispiele \\\hline
Superskalar & Hardware & Dynamisch & Statisch & In-order Execution & Sun UltraSPARC II/ III \\
Out of Order & Hardware & Dynamisch & Dynamisch mit Spekulation & Out of Order mit Spekulation & Pentium III, Pentium 4, MIPS 10000 \\
VLIW & Software & Statisch & Statisch & Keine Konflikte & Trimedia, diverse DSPs
\end{tabular}
}
\raggedright
\footnotesize
\begin{multicols}{3}
% multicol parameters
% These lengths are set only within the two main columns
\setlength{\columnseprule}{0.25pt}
\setlength{\premulticols}{1pt}
\setlength{\postmulticols}{1pt}
\setlength{\multicolsep}{1pt}
\setlength{\columnsep}{2pt}
\paragraph{CISC}
\begin{itemize*}
\item Complex Instruction Set Computing
\item Einfache und komplexe Befehle
\item Heterogener Befehlssatz
\item Verschiedene Taktzahl pro Befehl
\item Viele Befehlscode-Formate mit unterschiedlicher Länge
\item Mikroprogrammwerk
\item Vermischung von Verarbeitungs \& Speicherbefehlen
\item schwierig, unter CPI = 2 zu kommen
\end{itemize*}
\paragraph{RISC}
\begin{itemize*}
\item Reduced Instruction Set Computing
\item wenige, einfache Befehle
\item Orthogonaler Befehlssatz
\item Meist 1 Takt pro Befehl
\item Wenige Befehlscode-Formate mit einheitlicher Länge
\item Direktverdrahtung
\item Trennung von Verarbeitungs \& Speicherbefehlen
\item Hohe Ausführungsgeschwindigkeit $(CPI \leq 1)$
\end{itemize*}
\paragraph{MIPS}
\begin{itemize*}
\item Microprocessor without interlocked pipeline stages
\item 32-bit Architektur/64-bit Erweiterung
\end{itemize*}
\includegraphics[width=\textwidth/4]{Assets/RA2_Operanden.png}
\includegraphics[width=\textwidth/4]{Assets/RA2_pipelineCPU.png}
\includegraphics[width=\textwidth/4]{Assets/RA2_mehrzyklenCPU.png}
Aufgaben der einzelnen Phasen
\begin{description*}
\item[Befehlsholphase] Lesen des aktuellen Befehls; separater Speicher, zur Vermeidung von Konflikten mit Datenzugriffen
\item[Dekodier \& Register-Lese-Phase] Lesen der Register möglich wegen fester Plätze für Nr. im Befehlswort
\item[Ausführungs \& Adressberechnungsphase] Berechnung arithmetischer Funktion bzw. Adresse für Speicherzugriff
\item[Speicherzugriffsphase] Wird nur bei Lade \& Speicherbefehlen benötigt
\item[Abspeicherungsphase] Speichern in Register, bei Speicherbefehlen nicht benötigt
\end{description*}
\paragraph*{Hazards}
\begin{itemize*}
\item resource hazards
\item data hazards: Datenabhängigkeiten
\begin{description*}
\item[Antidatenabhängig] falls Befehl j eine Speicherzelle beschreibt, die von i noch gelesen werden müsste. WAR (write after read)
\item[Ausgabeabhängig] falls Befehle i und j die selbe Speicherzelle beschreiben. WAW (w.a.w.)
\item[Datenabhängigkeit] Operation hängt von der vorhergehenden Operation ab. RAW (r.a.w.)
\end{description*}
\item control hazards: Kontrollabhängigkeiten
\begin{itemize*}
\item Gleichheit der Register wird schon in der instruction decode-Stufe geprüft
\item Sprungziel wird in separatem Adressaddierer bereits in instruction decode-Stufe berechnet
\end{itemize*}
\end{itemize*}
\subsection{ Sprungvorhersage}
\paragraph{Einfache lokale Prädiktoren}
\begin{itemize*}
\item Vorhersage, ob bedingter Sprung genommen wird oder nicht
\item Prädiktion allein anhand der Historie des betrachteten, aktuellen Sprungs
\item Historie eines Sprungs wird mit 1, 2 oder n Bits gepuffert
\end{itemize*}
\paragraph{ Einfache Sprungvorhersage (1 Bit)}
\begin{itemize*}
\item Branch prediction buffer oder branch history table
\item Kleiner Speicher, der mit (Teil der) Adresse des Sprungbefehls indiziert wird
\item Verwendet nur wenige untere Bits der Adresse
\item Enthält 1 Bit: Sprung beim letzten Mal ausgeführt (taken) oder nicht (not taken)
\item Prädiktion: Sprung verhält sich wie beim letzten Mal
\item Nachfolgebefehle ab vorhergesagter Adresse holen
\item Falls Prädiktion fehlerhaft: Prädiktionsbit invertieren
\item Alle Sprünge, deren Adressen im Indexteil übereinstimmen, werden derselben Zelle im branch prediction buffer zugeordnet
\item Einfachste Art von Puffer (keine Tags, keine Überprüfung, ob Adresse im Puffer)
\item Entspricht sehr einfachem Cache
\item Hat eine bestimmte Kapazität
\item Kann nicht für alle Sprünge Einträge enthalten
\item Reduziert branch penalty nur, wenn branch delay länger als Berechnung der Zieladresse mit branch prediction buffer dauert
\item Prädiktion kann fehlerhaft sein
\item Prädiktion kann von anderem Sprungbefehl stammen (mit gleichen Bits im Indexteil der Adressen)
\end{itemize*}
\paragraph{ Einführung von Tag Bits}
\begin{itemize*}
\item wenn Sprung fast immer ausgeführt (taken) wird, entstehen 2 Fehler anstatt 1
\item Tag: gültiger Eintrag, falls Tag-Bits gleich sind
\item Alle Sprünge, deren Adressen im Indexteil übereinstimmen, werden derselben Zelle im branch prediction buffer zugeordnet. Überprüfung mittels tags, ob es der richtige Eintrag ist.
\item Allgemein: Fehlerrate von 1-Bit Prädiktor ist für Sprünge in Schleifenkonstrukten doppelt so hoch wie die Anzahl ausgeführter Sprünge
\end{itemize*}
\paragraph{ 2 Bit Vorhersagen}
\begin{itemize*}
\item Änderung der Vorhersage nur, wenn 2 falsche Vorhersagen in Folge
\item 2-Bit Branch-Prediction Buffer: Speicherung der Historie, Befehlsadressen als Zugriffsschlüssel
\end{itemize*}
% !{Sprungvorhersage; Quelle RA2 Vorlesung 2020/21](Assets/RA2_Sprungvorhersage.png)
\paragraph{ n-Bit Prädikator}
\begin{itemize*}
\item Verwendet n-Bit Zähler
\item Sättigungsarithmetik (kein wrap around bei Überlauf)
\item Kann Werte zwischen $0$ und $2^{n-1}$ annehmen
\item Wenn Zähler größer als Hälfte des Maximums $(2^{n-1})$: Vorhersagen, dass Sprung ausgeführt wird; ansonsten vorhersagen, dass Sprung nicht genommen wird
\item Zähler wird bei ausgeführtem Sprung inkrementiert und bei nicht ausgeführtem dekrementiert
\item Praxis: 2-Bit Prädiktor ähnlich gut wie n-Bit Prädiktor
\end{itemize*}
\paragraph{ Korrelierende Prädikatoren}
\begin{itemize*}
\item Betrachtet nur Verhalten eines Sprungs, um dessen Verhalten vorherzusagen
\item Arbeitet rein lokal
\item Verbesserung durch Betrachtung des Verhaltens anderer Sprünge
\item erhält so korrelierenden/zweistufigen Prädiktor
\item Prinzip: Aufgrund globaler Information wird einer von mehreren lokalen Prädiktoren ausgewählt
\item Beziehen zur Vorhersage des Verhaltens Kontext-Information mit ein, d.h. die Historie anderer Sprungbefehle
\item Prädiktor benutzt globale Kontext-Bits, um einen von mehreren lokalen Prädiktoren auszuwählen
\item Betrachten wiederholte Ausführung des Codefragments
\end{itemize*}
Zweistufiger Prädiktor
\begin{itemize*}
\item Es existieren 2 lokale Prädiktoren, beide je 1-Bit
\item Kontext: Letzter Sprung wurde (nicht) ausgeführt
\item Anhand des Kontexts wird lokaler Prädiktor für die Vorhersage des aktuell betrachteten Sprungs ausgewählt
\item Letzter Sprung ist i.a. nicht gleich aktuellem, vorherzusagendem Sprung
\item Notation des Prädiktorstatus:$<X>/<Y>$ mit
\item $<X>$: Vorhersage, falls letzter Sprung not taken
\item $<Y>$: Vorhersage, falls letzter Sprung taken
\item $<X>\vee<Y>$ Vorhersagen: entweder T oder NT
\end{itemize*}
(m,n)-Prädiktor
\begin{itemize*}
\item Betrachtet als Kontext das Verhalten der letzten m Sprünge, um aus $2^m$ vielen lokalen Prädiktoren einen n-Bit Prädiktor auszuwählen
\item Höhere Vorhersagegenauigkeit
\item Erfordert kaum Hardwareaufwand
\item Sprunggeschichte kann in m-Bit Schieberegister gespeichert werden (1 Bit gleich 1 wenn Sprung taken)
\item Vorhersagepuffer adressiert via Konkatenation von unteren Adressbits der Sprungbefehlsadresse
\item m Bit globaler Sprunggeschichte
\end{itemize*}
\paragraph{ High Performance Befehlsdekodierung}
reine Vorhersage eines Sprungs i.d.R. nicht ausreichend
\begin{itemize*}
\item Insbesondere: Falls mehrere Befehle pro Takt auszugeben sind
\item Befehlsstrom mit großer Bandbreite erforderlich
\item Kontrollflussabhängigkeiten dürfen nicht „wahrnehmbar“ sein
\item Pufferung von Sprungzielen und nicht nur Vorhersage des Sprungverhaltens (branch target buffer)
\item Integrierte Einheit für das Holen der Befehle
\item Vorhersage von Rücksprungadressen (bei Prozeduraufruf)
\end{itemize*}
\paragraph{ Branch Target Buffer}
5-stufige Pipeline, Auswertung von Sprungbedingungen in EX
\begin{itemize*}
\item Branch delay von 2 Takten
\item Mit Sprungvorhersage (branch prediction buffer)
\item Zugriff erfolgt in ID (Adresse des Sprungbefehls schon in IF bekannt; aber evtl. angesprungenes Ziel erst nach Befehlsdecodierung)
\item Nächste vorhergesagte Instruktion kann erst nach ID geholt werden
\item Branch delay = 1, falls Prädiktion korrekt
\item Mit Pufferung des Sprungziels (branch target buffer)
\item Zugriff auf branch target buffer erfolgt in IF. Verhalten wie „echter“ Cache,adressiert mit Sprungbefehlsadresse
\item Liefert vorhergesagte Adresse als Ergebnis
\item Keine Verzögerung, falls Prädiktion korrekt
\item Zusätzliche Speicherung auch des Sprungziels
\item Bei geschickter Organisation kann das Fließband immer gefüllt bleiben; die Sprünge kosten dann effektiv keine Zeit; $CPI <1$ möglich.
\end{itemize*}
Eigenschaften
\begin{itemize*}
\item Verzögerung durch Sprung kann vollständig vermieden werden, da bereits in IF Entscheidung über nächsten Befehlszähler (PC) getroffen wird.
\item Da Entscheidung allein auf Basis des PC getroffen wird, muss überprüft werden, ob Adresse im Puffer
\item Speicherung nur für Sprünge notwendig, die als ausgeführt vorhergesagt werden
\item Entsteht ursprüngliche Sprung-Verzögerung plus Aufwand zur Aktualisierung des Vorhersagepuffers
\end{itemize*}
\paragraph{ Integrierte Befehls-Hol-Einheit (IF Unit)}
Insbesondere mit Blick auf multiple-issue Prozessoren eigene (autonome) funktionale Einheit für Befehlsholphase
\begin{itemize*}
\item Führt Befehlscodes in Pipeline ein
\item Integrierte Funktionalitäten
\item Sprungvorhersage wird Teil der Befehlsholphase
\item Instruction Pre-fetch: Insbes. um mehrere Befehle pro Takt liefern (und später ausgeben) zu können, läuft Befehlsholen weiterer Dekodierung voraus (= pre-fetch)
\item Zugriff auf Befehlsspeicher: Bei mehreren Befehlen pro Takt mehrere Zugriffe erforderlich (bei Cache auf ggfs. mehrere cache lines). Werden hier koordiniert/geplant
\item Befehlspuffer: Befehle können hier (lokal im Prozessor!) von Issue-Stufe nach Bedarf abgerufen werden
\end{itemize*}
\paragraph{ Vorhersage von Rücksprungadressen}
Allgemeines Ziel: Vorhersage indirekter Sprünge (d.h. bzgl. Basisadresse in Register)
\begin{itemize*}
\item Hauptverwendung: Rückkehr aus Prozeduraufrufen
\item MIPS: Prozeduraufruf per jal proc, Rückkehr per jr \$31
\item Vorhersage mit branch target buffer schlecht, da Aufruf aus unterschiedlichen Codeteilen heraus möglich
\item Methode: (Stack-) Speicher für Rücksprungadressen
\item Push bei Prozeduraufruf (call), und
\item Pop bei Rücksprung (return)
\item Vorhersagequalität „perfekt“, wenn Stack-Puffer größer als maximale Aufruftiefe
\end{itemize*}
\section{ Multiple-Issue-Architekturen}
\subsection{ Mehrere Ausführungseinheiten}
\begin{itemize*}
\item Weitere Leistungssteigerung: $CPI < 1$
\item Mehrere Befehle pro Takt ausgeben
\item Zwei Grundtypen von multiple-issue Prozessoren:
\begin{itemize*}
\item Superskalar: variable Anzahl von Befehlen pro Takt
\item VLIW/EPIC: Feste Anzahl von Befehlen ausgegeben, definiert durch Befehlscode (weitgehende Planung der Issue-Phase durch Compiler)
\end{itemize*}
\end{itemize*}
% !{In Order Pipeline; Quelle RA2 Vorlesung 2020/21](Assets/RA2_in-order-pipeline.png)
\subsection{ Superskalar}
statisch: Details der Befehlsausgabe
\begin{itemize*}
\item In IF werden 1-n Befehle von Instruction Fetch Unit geholt (ggfs. Max. von n nicht immer möglich)
\item Befehlsgruppe, die potentiell ausgegeben werden kann = issue packet
\item Konflikte bzgl. Befehlen im issue packet werden in Issue-Stufe in Programmreihenfolge geprüft
\item Befehl ggfs. nicht ausgegeben (und alle weiteren)
\item Aufwand für Prüfung in Issue-Stufe groß!
\item Wegen Ausgewogenheit der Pipeline-Stufen ggfs. Issue in mehrere Stufen unterteilen = nicht-trivial
\item Parallele Ausgabe von Befehlen limitierender Faktor superskalarer Prozessoren
\end{itemize*}
MIPS mit statischem Scheduling
\begin{itemize*}
\item Annahme: 2 Befehle pro Takt können ausgegeben werden (1x ALU, Load/Store plus 1x FP)
\item Einfacher als 2 beliebige Befehle (wegen „Entflechtung“)
\item 2 Befehlsworte holen (64-Bit Zugriff, komplexer als bei nur 1 Befehl)
\item Prüfen, ob 0/1/2 Befehle ausgegeben werden können
\item Befehl(e) ausgeben an korrespondierende funktionale Einheiten
\item Prüfen auf Konflikte durch Entflechtung vereinfacht
\item Integer und FP-Operationen nahezu unabhängig (verschiedene Registersätze)
\item Abhängigkeiten nur bei Speichertransfers möglich (von Integer-ALU für FP ausgeführt) \item Einschränkung des issue
\item Leistungssteigerung nur bei geeignetem Anteil von FP-Operationen sowie geeigneter Verflechtung durch Compiler
\end{itemize*}
\subsection{Dynamisches Scheduling - in-order-execution}
\begin{itemize*}
\item Jeder Befehl, der aus der Instruction fetch-Einheit kommt, durchläuft das Scoreboard (Scoreboarding)
\item Wenn für Befehl alle Daten/Operanden bekannt sind und Ausführungseinheit frei ist, wird Befehl gestartet
\item Alle Ausführungseinheiten melden abgeschlossene Berechnungen dem Scoreboard
\item Scoreboard erteilt Befehlen die Berechtigung zum Abspeichern von Ergebnissen, sofern Speichereinheit frei ist und Antidaten- und Ausgabeabhängigkeiten berücksichtigt sind und prüft, ob dadurch neue Befehle ausführbereit werd
\item Zentrale Datenstruktur: Scoreboard (für Befehlsstatus)
\item load/store-Architektur
\item mehrere funktionale Einheiten
\item Scoreboarding für MIPS nur sinnvoll wenn
\item für FP-Pipeline (Operationen mit mehreren Taktzyklen)
\item und mehrere funktionale Einheiten (zB: 2xMult, Div, Add, Int)
\end{itemize*}
% !{Out Of Order Execution; Quelle RA2 Vorlesung 2020/21](Assets/RA2_out-of-order-execution.png)
\paragraph{ Verfahren von Tomasulo}
\begin{itemize*}
\item erlaubt auch bei Ausgabe- und Antidatenabhängigkeiten, die Reihenfolge zu vertauschen
\item Umbenennung der Register
\item verschiedenen Benutzungen eines Registers werden verschiedene Speicherzellen zugeordnet
\item Jeder funktionalen Einheit wird eine Reservation Station zugeordnet
\item Reservation Stations enthalten die auszuführende Operation und die Operanden/tags des Operanden
\item Sind alle Operanden bekannt und ist die funktionale Einheit frei, so kann die Bearbeitung beginnen
\item Am Ende der Bearbeitung wird das Ergebnis von allen Einheiten übernommen, die das Ergebnis benötigen
\item Verteilen der Daten erfolgt vor der Abspeicherung im Registerspeicher
\item Aus den tag bits geht hervor, aus welcher Einheit der Operand kommen muss
\item Registeradressen werden dynamisch auf größere Anzahl von Plätzen in den Reservation Stations abgebildet, d.h. Register effektiv umbenannt
\item Performance-Beschränkungen wegen weniger Register werden so umgangen
\end{itemize*}
\paragraph{ Register Renaming}
\begin{itemize*}
\item Verwendung temporärer Register für (logisch) neue möglicherweise interferierende Belegung
\item Alle Namenskonflikte durch Umbenennung auflösbar (Voraussetzung: genügend temporäre Register)
\item Wichtige Hardwarestruktur: Reservation Stations
\item Zugeordnet zu funktionalen Einheiten (i.d.R. pro Einheit)
\item Puffern Operanden für Befehle (sobald verfügbar)
\item Müssen nicht aus Registern gelesen werden
\item Ausstehende Operanden verweisen auf Reservation Station, die Eingabe bereitstellen
\item Bei aufeinander folgenden Schreibzugriffen auf Register: Nur letzter für Aktualisierung des Inhalts verwendet
\item Wichtige Eigenschaften der Verwendung von Reservation Stations anstelle des zentralen Registersatzes
\item Konfliktdetektion und Ausführungskontrolle verteilt
\item Informationen in Reservation Stations bei den funktionalen Einheiten bestimmen, wann Ausführung eines Befehls möglich ist
\item Ergebnisse werden direkt zu den funktionalen Einheiten (in jeweiliger Reservation Station) weitergereicht
\item Erweiterte Form des Forwarding
\item Realisiert implizit Register Renaming
\item durch gemeinsamen Ergebnisbus (common data bus)
\end{itemize*}
\subsection{ Multiple-Issue mit dynamischem Scheduling}
\begin{itemize*}
\item Nachteil von statischem Scheduling: Latenzzeiten werden ca. mit Länge des issue packets skaliert
\item Längere Verzögerung für Load/Stores bzw. Branches
\item Lösung: Erweiterung des Tomasulo-Algorithmus auf Multiple-Issue durch
\item Sequentielles Ausgeben mehrerer Befehle an Reservation Stations innerhalb eines Taktes,
\item oder „Verbreiterung“ der Ausgabe-Logik (issue logic) zur Behandlung mehrerer Operationen parallel
\end{itemize*}
\paragraph{ VLIW - Very Long Instruction Word}
\begin{itemize*}
\item verschiedene parallele Ausführungseinheiten
\item Verteilung von Maschinencode direkt vom Befehlswort im Speicher vorgegeben
\item für jede Ausführungseinheit dezidierte Anweisungen
\item keine Abhängigkeiten, geringere Komplexität in Hardware
\item Meist für stark parallelisierbare Aufgaben verwendet
\item Vorteile:
\begin{itemize*}
\item Die parallele Architektur des Prozessors kann schon während der der Programmerstellung zur Optimierung genutzt werden
\item Keine aufwendige Prozessorhardware zur Befehlsverteilung erforderlich
\item Ausführungszeiten sind im wesentlichen bekannt
\end{itemize*}
\item Nachteile:
\begin{itemize*}
\item Aufwendigere Compiler
\item Schlechte Prozessorauslastung bei ungünstigem Code
\item Rekompilierung für den Prozessor erforderlich
\item Größerer Speicherbedarf, wenn Code nicht parallelisiert werden kann
\end{itemize*}
\end{itemize*}
% !{VLIW Dynamisch; Quelle RA2 Vorlesung 2020/21](Assets/RA2_VLIW-dynamisch.png)
EPIC = Explicitely Parallel Instruction Computing = IA64
\begin{itemize*}
\item Im wesentlichen Prinzip des VLIW-Prozessors
\item Umsortieren der Befehle und Auflösung der Abhängigkeiten werden durch den Compiler durchgeführt
\item Hauptnachteil: Neukompilierung erforderlich
\item Keine statische Aufteilung auf Funktionseinheiten
\item Effizienteres Befehlswort
\item Keine Verwendung von zwangsweise NOPs
\end{itemize*}
Bei der IA64-Architektur werden verschiedene Ansätze verfolgt, um die Prozessorlogik zu vereinfachen.
\begin{enumerate*}
\item Bedingte Befehlsverarbeitung
\begin{itemize*}
\item Ein Befehl wird abhängig von einem Statusbit ausgeführt
\item Dadurch kann die Sprungvorhersage bei einfachen if-then-else Zweigen entfallen
\item Die then und else Befehle sind parallel, wobei jeweils nur einer ausgeführt wird
\end{itemize*}
\item Statische Sprungvorhersage (Compiler)
\item Die Optimierung (Finden paralleler Befehle) wird im wesentlichen dem Compiler überlassen.
\item Spekulatives Laden von Operanden
\begin{itemize*}
\item Möglichst geringe Wartezeit auf Operanden
\item Schon im Compiler werden entsprechende Ladebefehle vorgezogen.
\end{itemize*}
\end{enumerate*}
% !{VLIW Vergleich; Quelle RA2 Vorlesung 2020/21](Assets/RA2_VLIW-vergleich.png)
\subsection{Simultaneous Multithreading (SMT)}
% !{SMT; Quelle RA2 Vorlesung 2020/21](Assets/RA2_Simultaneous-Multithreading.png)
\begin{itemize*}
\item Modellprozessor I (2-fach Superskalar)
\item Modellprozessor II (2-fach Out-of-Order)
\end{itemize*}
\subsection{Speicherhierarchie}
\begin{itemize*}
\item Große Speicher sind langsam
\item Anwendung verhalten sich üblicherweise lokal
\item Häufig benötigte Speicherinhalte in kleinen Speichern, seltener benötigte Inhalte in großen Speichern ablegen
\item Bis zu sechs Ebenen unterscheidbar
\end{itemize*}
\begin{center}
\begin{tabular}{c | c | c}
Ebene & Latenz & Kapazität \\\hline
Register & 100 ps & 1 KB \\
Cache & 1 ns & 12 MB \\
Hauptspeicher/RAM & 10 ns & 8 GB \\
Festplatte & 10 ms & 1 TB \\
CD-ROM/DVD & 100 ms & 50 GB \\
Magnetbänder & 100 s & 5 TB
\end{tabular}
\end{center}
Adresspipelining
\begin{itemize*}
% !{Pipelining; Quelle RA2 Vorlesung 2020/21](Assets/RA2_Adresspipelining.png)
\item Matrixaufbau eines Speichers
\item Aufteilen der Speicheradresse in Zeilen- und Spaltenadresse
\end{itemize*}
Lesezugriff auf Speicher
\begin{itemize*}
\item Dekodierung der Zeilenadresse bestimmt Select-Leitung
\item Komplette Zeile wird in den Zeilenpuffer geschrieben
\item Durch Dekodierung der Spaltenadresse wird das gewünscht Datenwort ausgewählt
\item Blocktransfer (Burst): Auslesen des kompletten Zeilenpuffers durch automatisches Inkrementieren der Spaltenadresse
\end{itemize*}
\subsection{Typischer DRAM-Speicher}
\begin{itemize*}
\item Adressleitungen werden i.d.R. gemultiplext
\item gleiche Adressleitungen werden einmal zur Auswahl der Zeile verwendet, dann zur Auswahl der Spalte
\item Einsparung von Leitungen, gerade für große Speicher
\item Steuerleitungen RAS/CAS codieren
\item RAS (Row Address Strobe): Bei fallenden Flanke auf RAS ist anliegende Adresse Zeilenadresse
\item CAS (Column Address Strobe): Bei fallenden Flanke auf CAS ist anliegende Adresse Spaltenadresse
\item Zeilenadressdecoder liefert Select-Leitung für eine Zeile
\item Komplette Zeile wird in einen Zwischenpuffer übernommen und zurückgeschrieben
\item DRAM-Eigenschaften: Weniger Platzbedarf
\item Nur 1 Transistor und 1 Kondensator pro Speicherzelle, statt 6 Transistoren bei SRAM
\item Integrationsdichte Faktor 4 höher als bei SRAMs
\item Aber: Langsamerer Zugriff, Insbes. Lesezugriff wegen Zwischenspeicherung und Auffrischung
\item Auf DRAM-Zeile kann während Auffrischung nicht zugegriffen werden
\item Hoher Energieverbrauch sowohl bei Aktivität als auch bei Inaktivität
\item Ausgleich des Ladungsverlusts durch periodische Auffrischung
\end{itemize*}
%Interleaving
% !{Interleaving; Quelle RA2 Vorlesung 2020/21](Assets/RA2_Interleaving.png)
\subsection{Caches}
\begin{itemize*}
\item Cache = schneller Speicher, der vor einen größeren, langsamen Speicher geschaltet wird
\item 90\% der Zeit verbringt ein Programm in 10\% des Codes
\item Puffer zwischen Hauptspeicher und Prozessor
\item Prüfung anhand der Adresse, ob benötigte Daten im Cache vorhanden sind („Treffer“; cache hit)
\item Falls nicht (cache miss): Zugriff auf den (Haupt-) Speicher, Eintrag in den Cache
%\item Prinzip eines Cache (Hit) !{Cachehit; Quelle RA2 Vorlesung 2020/21](Assets/RA2_Cachehit.png)
\item Organisations: direkt, mengenassoziativ, vollassoziativ
\item Welcher Speicherblock sollte bei einem Fehlzugriff ersetzt werden?
\item Ersetzungsstrategie: Zufällig, FIFO, LRU
\item Was passiert beim Schreiben von Daten in den Cache?
\item Schreibstrategie: write-back, write-through
\item Such-Einheit im Cache: Cache-Zeile (cache line)
\item Blockgröße ist Anzahl der Worte, die im Fall eines cache misses aus Speicher nachgeladen werden
\item Verbindung Speicher $\leftrightarrow$ Cache ist so entworfen, dass Speicher durch zusätzliches Lesen nicht langsamer wird
\item Methoden dazu:
\begin{itemize*}
\item Schnelles Lesen aufeinanderfolgender Speicherzellen (Burst-Modus der Speicher)
\item Interleaving (mehrere Speicher ICs mit überlappenden Zugriffen)
\item Fließbandzugriff auf den Speicher (EDO-RAM, SDRAM)
\item Breite Speicher, die mehrere Worte parallel übertragen können
\end{itemize*}
%\item 2-Wege Cache (Datensicht) !{2 Wege Cache; Quelle RA2 Vorlesung 2020/21](Assets/RA2_2-wege-cache.png)
\item Direkt abgebildet (Direct mapping): Für caching von Befehlen besonders sinnvoll, weil bei Befehlen Aliasing sehr unwahrscheinlich ist
\item Satz-assoziativ abgebildet (Set-associative mapping): Sehr häufige Organisationsform, mit Set-Größe = 2/4/8
\item Vollassoziativ abgebildet (Associative mapping): Wegen der Größe moderner Caches kommt diese Organisationsform kaum in Frage
\item Ersetzungs-Strategien
\begin{itemize*}
\item Zufallsverfahren: Hier wird der zu ersetzende Block innerhalb des Satzes zufällig ausgewählt.
\item FIFO-Verfahren: Beim FIFO-Verfahren (engl. First In, First Out) wird der älteste Block ersetzt, auch wenn auf diesem gerade erst noch zugegriffen wurde
\item LRU-Verfahren (least recently used ) Block ersetzt, auf den am längsten nicht mehr zugegriffen wurde
\item LFU-Verfahren (least frequently used ) am seltensten gelesene Block ersetzt
\item CLOCK-Verfahren: alle Platzierungen im Kreis auf einem Ziffernblatt angeordnet. Ein Zeiger wird im Uhrzeigersinn weiterbewegt und zeigt den zu ersetzenden Eintrag an.
\end{itemize*}
\end{itemize*}
Strategien zum Rückschreiben $\rightarrow$ (Haupt-) Speicher
\begin{itemize*}
\item Write-Through (Durchschreiben):
\item Jeder Schreibvorgang in den Cache führt zu einer unmittelbaren Aktualisierung des Speichers
\item Speicher wird Engpass, es sei denn, der Anteil an Schreiboperationen ist klein oder der Speicher ist nur wenig langsamer als der Cache.
\item Copy-Back, conflicting-use-write-back:
\item Rückschreiben erfolgt erst, wenn Cache-Zeile bei Miss verdrängt wird
\item Funktioniert auch bei großen Geschwindigkeitsunterschieden zwischen Cache und Speicher. Vorkehrungen erforderlich, damit keine veralteten Werte aus dem Speicher kopiert werden.
\end{itemize*}
% !{Write Trough vs Write Back; Quelle RA2 Vorlesung 2020/21](Assets/RA2_cache-write-trough-vs-back.png)
Trefferquote $T=\frac{N_C}{N_G}$ mit $N_G$ Gesamtzahl der Zugriffe auf Speicher und $N_C$ Anzahl der Zugriffe mit Hit auf Cache
\subsection{ Digital-Signal-Prozessoren}
Entwickelt für hohe Leistung, u.a. sich wiederholende, numerisch intensive Aufgaben.
In einem Befehlszyklus kann man ausführen:
\begin{itemize*}
\item eine oder mehrere MAC-Operationen
\item ein oder mehrere Speicherzugriffe
\item spezielle Unterstützung für effiziente Schleifen
\end{itemize*}
Die Hardware enthält:
\begin{itemize*}
\item Eine oder mehrere MAC-Einheiten
\item On-Chip- und Off-Chip-Speicher mit mehreren Ports
\item Mehrere On-Chip-Busse
\item Adressgenerierungseinheit, die auf DSP-Anwendungen zugeschnittene Adressierungsmodi unterstützt
\end{itemize*}
\section{ Multiprozessorarchitekturen}
Klassifikation nach Flynn
\begin{center}
\begin{tabular}{ c | c | c}
& Ein Datenstrom & mehrere Datenströme \\\hline
ein Befehlsstrom & SISD & SIMD \\
mehrere Bs & MISD & MIMD
\end{tabular}
\end{center}
% !{SISD; Quelle RA2 Vorlesung 2020/21](Assets/RA2_SISD.png)
% !{SIMD; Quelle RA2 Vorlesung 2020/21](Assets/RA2_SIMD.png)
% !{MISD; Quelle RA2 Vorlesung 2020/21](Assets/RA2_MISD.png)
% !{MIMD; Quelle RA2 Vorlesung 2020/21](Assets/RA2_MIMD.png)
% Speicherstrukturen: !{Speicherstrukturen; Quelle RA2 Vorlesung 2020/21](Assets/RA2_Speicherstrukturen.png)
%Enge und lose Kopplung !{Enge und lose Kopplung; Quelle RA2 Vorlesung 2020/21](Assets/RA2_Enge%20und%20lose%20Kopplung.png)
%Verbindungsnetzwerke
% !{Verbindungsnetzwerke; Quelle RA2 Vorlesung 2020/21](Assets/RA2_Verbindungsnetzwerke.png)
% !{Verbindungsnetzwerke2; Quelle RA2 Vorlesung 2020/21](Assets/RA2_Verbindungsnetzwerke2.png)
%Dual-Core-System mit mehrstufiger Bushierarchie
% !{Dual Core System; Quelle RA2 Vorlesung 2020/21](Assets/RA2_DualCoreSystem.png)
%Reales Shared Memory System
% !{Shared Memory System; Quelle RA2 Vorlesung 2020/21](Assets/RA2_SharedMemorySystem.png)
Cache(daten)-Kohärenz
\begin{itemize*}
\item Kohärenz: welcher Wert wird beim Lesen abgeliefert
\item Bezug auf Lesen und Schreiben ein- und derselben Speicherzelle
\item Definition: Ein Speichersystem heißt kohärent, wenn
\begin{itemize*}
\item geschriebene Werte werden wieder gelesen
\item Schreibvorgänge derselben Zelle serialisiert
\end{itemize*}
\item Lösung des I/O-Problems: Zuordnung einer I/O-Einheit zu jedem Prozessor
% !{Cache I/O Einheit; Quelle RA2 Vorlesung 2020/21](Assets/RA2_CacheIOEinheit.png)
\item Hardware-Lösung: Aufwändig, schlechte Lokalität der Daten
\item Gemeinsamer Cache für alle Prozessoren: Hoher Hardware-Aufwand, geringe Effizienz
\item Unterscheidung in cacheable/non-cacheable Daten: Hoher Aufwand
\end{itemize*}
Snooping-Protokolle
\begin{itemize*}
\item Die Caches aller Prozessoren beobachten alle Datenübertragungen von jedem Cache zum Hauptspeicher.
\item Voraussetzung: broadcastfähiges Verbindungsnetzwerk
\item Write Invalidate: Das Verändern eines Blocks im Speicher führt zur Invalidierung aller Cache-Kopien mit der gleichen Adresse
\item Write Update / Write Broadcast: Das Verändern eines Blocks im Speicher führt zur Modifikation aller anderen Cache-Blöcke mit der gleichen Adresse
\end{itemize*}
Copy-Back
\begin{itemize*}
\item Copy-Back Caches führen zur temp. Inkonsistenz
\item Lösung: exklusives Eigentumskonzept durch Zustandsgraph pro Cache-Block
\item MESI (Modified, Exclusive, Shared, Invalid)
\item Mischung zwischen Write-Through und Copy-Back
\end{itemize*}
\paragraph{MESI}
Vier Zustände
\begin{itemize*}
\item (exclusive) Modified: Cache-Block wurde lokal geändert, die Kopie im Hauptspeicher ist ungültig. Will ein anderer Prozessor dieses Datum im Hauptspeicher lesen, so muss der Cache-Block erst in den Hauptspeicher zurückgeschrieben werden.
\item Exclusive (unmodified): Dieser Cache ist der einzige, der den Cache-Block enthält, Wert im Hauptspeicher ist gültig. Liest ein anderer Prozessor dieses Datum im Hauptspeicher, so muss die Zeile als shared markiert werden. Wird das Datum im Hauptspeicher verändert, ist der Cache-Block auf invalid zu setzen.
\item Shared (unmodified): Mehrere Caches (mind. 2) enthalten dieses Datum. Da alle bisher nur gelesen haben, ist das Datum im Hauptspeicher gültig. Schreibzugriffe auf einen shared Cache-Block müssen immer zu einer Bus-Operation führen, damit die Cache-Blocks der anderen Caches auf invalid gesetzt werden können.
\item Invalid: Cache-Block ist noch gar nicht geladen bzw. veraltet/ungültig
\end{itemize*}
Bus-Operationen
\begin{itemize*}
\item Bus Read: wenn ein Prozessor Wert eines Speicherblocks lesen will
\item Bus Read Exclusive: wenn ein Prozessor Wert eines Speicherblocks überschreiben will
\item Flush: wenn ein Prozessor $P_i$ einen Speicherblock alleinig in seinem Cache hat, ein anderer Prozessor $P_j$ aber lesend oder schreibend auf diesen Block zugreift. Bei einer Flush-Operation legt $P_i$ ebenfalls das Datum des Speicherblocks auf den Bus.
\end{itemize*}
Steuersignale
\begin{itemize*}
\item Invalidate-Signal: Invalidieren des Blocks in den Caches anderer Prozessoren
\item Shared-Signal: Signalisierung, ob ein zu ladendes Datum bereits als Kopie im Cache vorhanden ist
\item Retry-Signal: Aufforderung von Prozessor $P_i$ an Prozessor $P_j$, das Laden eines Datums vom Hauptspeicher abzubrechen, da der Hauptspeicher noch ein altes, ungültiges Datum besitzt und vorher aktualisiert werden muss. Das Laden durch $P_j$ kann danach wiederholt werden.
\end{itemize*}
Bewertung von Snooping-Protokollen
\begin{itemize*}
\item Leichte Implementierbarkeit bei Bus-basierten Shared Memory Systemen
\item Snooping skaliert bei Bussen jedoch nicht
\item Bei vielen beteiligten Prozessoren sinkt die effektive Bandbreite des Busses, da überproportional viele Invalidierungsnachrichten per Broadcast über den Bus gehen
\item Punkt-zu-Punkt Netzwerke sind skalierbar, jedoch ist die Implementierung von Broadcasts hier aufwändig
\item Für Snooping-Protokolle daher oft ungeeignet
\end{itemize*}
Directory-Protokolle
\begin{itemize*}
\item Nur wenige Prozessoren teilen sich die gleichen Daten in vielen Anwendungen
\item Directory-Protokolle nutzen Lokalitätsinformationen, um die Anzahl an Invalidierungsnachrichten zu minimieren
\item Nachrichten gehen nur an Prozessoren, die eine Kopie des Cache-Blocks besitzen
\item Directory-Protokolle skalieren daher auch für Netze ohne Broadcast-Fähigkeit
\item Presence Flag Vector: Im Hauptspeicher abgelegter Bit-Vektor für jeden einzelnen Speicherblock (1 Bit pro Prozessor/Cache + Statusbits (dirty, modified))
\item Problem: Wachstum des Speicherbedarfs linear mit Anzahl der Prozessoren
\end{itemize*}
\newpage
\section{Spezialrechner}
\subsection{Einchiprechner}
\begin{itemize*}
\item geringer Stromverbrauch, Wärme
\item relativ geringer Befehlsdurchsatz
\item einfacher Befehlssatz
\item komplexer Rechner auf einem Chip (Ram/Rom intern)
\item an Problem angepasst
\item so Leistungsfähig wie nötig
\item Anwendung: einfache Steuer-/Regelungsaufgaben
\end{itemize*}
\subsection{Digitale Signalprozessorren}
\begin{itemize*}
\item mehrere ALU Funktionen (+Shifter)
\item größerer ROM, RAM (mit Stack), Cache
\item externes Interface für Speicher und E/A
\item DMA-Coprozessor
\item mehrere universelle parallele E/A-Ports
\item AD-Wandler meist nicht on-chip
\item DSP's benutzung häufig VLIW
\item Anwendung: Signal-/Bildverarbeitung
\end{itemize*}
\section{Prozessorarchitekturen}
\subsection{CISC - complex instruction set Computer}
\begin{itemize*}
\item einfache und komplexe Befehle
\item heterogener Befehlssatz
\item verschiedene Taktanzahl pro Befehl
\item viele Befehlscodeformate mit unterschiedlicher Länge
\item Mikroprogrammwerk - Makrobefehl durch Mikrobefehlsfolge
\item vermischung von Verarbeitungs- und Speicherbefehlen
\end{itemize*}
\subsection{RISC - reduced instruction set computer}
\begin{itemize*}
\item nur einfache Befehle
\item ortohonaler Befehlssatz
\item meist 1 Takt pro Befehl
\item wenige Befehlscodeformate mit einheitlicher Länge
\item Direktverdrahtung
\item Trennung von Verarbeitungs- und Speicherbefehlen
\end{itemize*}
\subsection{Pipeline Prozessoren}
\begin{itemize*}
\item Aufteilung eines Befehls in Teilbefehle
\item parallele Abarbeitung verschiedener Teilbefehle von unerschiedlichen Befehlen möglich
\item Probleme
\begin{itemize*}
\item bedingte Sprünge (unvorhergesehen)
\item LSG: Pipeline um 2 Schritte verzögern
\item LSG: Sprungzielspekulation
\item Datenabhängigkeit
\item LSG: Pipeline um 2 Schritte verzögern
\item LSG: Out-of-Order Prinzip nutzen
\item LSG: Forwarding Hardware
\end{itemize*}
\item Superpipelining - noch mehr Befehlsaufteilung
\end{itemize*}
\subsection{Out-of-Order Architektur}
\begin{itemize*}
\item statt Pipeline bei Datenabhängigen Befehlen um 2 Schritte verzögern, datenunabhängige Befehle einschieben
\item möglichst ständige Auslastung aller EX Einheiten
\end{itemize*}
\subsection{Skalare Prozessoren}
\begin{itemize*}
\item Mikroarchitektur
\item Befehlszuordnung und Konfliktvermeidung geschieht durch Hardware
\item Speicherzugriffe automatisch von Load/Store Einheit
\item ein Befehlsstrom mit einfachem Befehl an Ausführungseinheit
\item bessere Reaktion auf Laufzeitereignisse
\item Spekulation möglich
\item Superskalar ($\geq 2$ EX Einheiten)
\begin{itemize*}
\item Befehle in Befehlsfenster gespeichert
\item Zuordnungseinheit wählt Befehl aus, die parallel verarbeitet werden können
\end{itemize*}
\end{itemize*}
\subsection{VLIW Architektur (very long instruction word)}
\begin{itemize*}
\item Befehlszuordnung und Konfliktvermeidung geschieht durch Compiler
\item Compiler muss Zeitbedarf der Speicherzugriffe in Befehlsplanung einbeziehen
\item Befehlsstrom mit Tupel von Befehlen
\item nicht un-flexibel bei Reaktion auf Laufzeitereignisse
\item VLIW hat festes Befehlsformat; höhere Codedichte
\item Vorteilhaft bei gut parallelisierbarem Code
\item Forwarding Hardware - nach dem EX werden Daten in Pufferregister gespeichert und können vom nächsten Befehl schon genutzt werden
\item WB erfolgt erst darauf
\item Datenabhängigkeitsproblem wird verringert
\item MUX nutzt eher Pufferdaten als Registerdaten
\end{itemize*}
\section{Speicherarchitekturen}
\subsection{Adresspipelining}
\begin{itemize*}
\item Aufteilen des Speicherzugriffs in mehrere Phasen
\item parallele gestaffelte Abarbeitung dieser Phasen für mehrere Speicherzugriffe
\item Adresse auslesen/dekodieren; Daten mit Prozessor
\end{itemize*}
\subsection{Speicher Interlacing}
\begin{itemize*}
\item Speicheraufteilung in mehrere physische Bände
\item Adressen nicht kontinuierlich in den Bänden, sondern wechseln von Band zu Band
\item nahezu gleichzeitiges Benutzen der Daten möglich (Daten-/Adressbus verhindern Parallelität)
\end{itemize*}
\subsection{Burst Mode}
\begin{itemize*}
\item Prozessor gibt eine Adresse, Speicher liefert n Datenworte (Adr, Adr+1,..., Adr+n-1)
\item falls folgende Datenworte genutzt werden, war für n Datenworte nur 1 Speicherzugriff (Zeit) nötig
\end{itemize*}
\subsection{Cache Speicher}
\begin{itemize*}
\item kleinder, schneller Prozessornaher Speicher
\item CPU weiß nciht dass Cache zwischengeschaltet ist
\item es wird immer zuerst im Cache nachgeschaut, zum Adressvergleich (kostet Zeit)
\item Cache besteht aus Cache Tabelle
\begin{itemize*}
\item voll assoziativ - Adressvergl. der kompletten Adresse
\item jede beliebige Adressfolge im Cache möglich
\item kann zu langsamen Adressvergleich führen
\item direct-mapped Adressvergleich nur über Teiladresse - eine Tabelle im Cache
\item mehr-wege-assoziativ Cache - mehrere Adressvergleiche parallel
\end{itemize*}
\item Schreibstategien (bei prozessor WB)
\begin{itemize*}
\item Write Trough Daten werden sowohl im Cache als auch im Hauptspeicher aktualisiert
\item Write Back: Cache sammelt Schreibvorgänge und aktualisiert nur im Cache. Nach einer entsprechenden Anweisung werden Daten in den hauptspeicher kopiert (aktualisiert)
\end{itemize*}
\item (über) Schreibstategien
\begin{itemize*}
\item nach Anlaufphase ist Cache immer vollständig gefüllt
\item für neue Einträge Ersetzungsstrategien benötigt FIFO, least recetly used - durch Zusatzhardware
\end{itemize*}
\item Speicherverwaltung mit memory management günstiger vor dem Cache
\end{itemize*}
\section{Parallele Rechnerarchitekturen}
\subsection{Flynn}
\begin{description*}
\item[SISD] Single Instruction Single Data
\item[SIMD] Single Instruction Multiple Data
\item[MIMD] Multiple Instruction Multiple Data
\item[MISD] Multiple Instruction Single Data
\end{description*}
\subsection{MIMD Kopplung}
\begin{description*}
\item[enge K.] (shared memory)
\begin{itemize*}
\item parallelzugriff in Datenbreite des Prozessors
\item schneller Datenaustausch (Proz-Speicher-Zugriffszeit)
\item neu lokal benachbarte Rechner
\item aus Sicht des Prozessors gemeinsamer Speicher
\item Arbites - Zuteiler für Busanforderungen
\end{itemize*}
\item[lose K.] (distributed memory)
\begin{itemize*}
\item meist seriell 1 bit breit
\item langsamer da über Kommunikations-schnittstelle
\item auch global verteilte Rechner
\item verschiedene Speicher dem Prozessor bewusst
\end{itemize*}
\item[Kopplung] verändern
\begin{itemize*}
\item Wartezeit auf Speicher
\item Kommunikationsaufwand
\item Kommunikationsfähigkeit
\item optimale Prozessor-/Speicher-/Kommunikationspfad anzahl $<\infty$
\end{itemize*}
\end{description*}
\end{multicols}
\end{document}