In diesem Kurs werden grundlegende Methoden und Theorien zur Lösung nichtlinearer Optimierungsprobleme behandelt. Ziel der nichtlinearen Optimierung ist es, eine Funktion unter bestimmten Nebenbedingungen zu minimieren oder zu maximieren, wobei sowohl die Zielfunktion als auch die Nebenbedingungen nichtlinear sein können. Anwendungen finden sich in vielen Bereichen wie z. B. der Datenanalyse, dem maschinellen Lernen, der Ingenieurwissenschaft, der Wirtschaft oder der Physik.
Behandelt werden unter anderem Optimalitätsbedingungen, allgemeine Abstiegsverfahren, Schrittweitenstrategien, Gradientenverfahren, konjugierte Gradientenmethoden, Newton- und Quasi-Newton-Verfahren sowie Optimierung unter Nebenbedingungen, insbesondere mit Box-Beschränkungen. Ein besonderer Fokus liegt auf der mathematischen Fundierung der Verfahren, ihrer Konvergenzeigenschaften sowie der praktischen Umsetzung. 

ePortfolio: No