数学代写|凸优化作业代写Convex Optimization代考|ELEN90026

2023年3月31日

如果你也在 怎样代写凸优化Convex Optimization这个学科遇到相关的难题,请随时右上角联系我们的24/7代写客服。

凸优化是数学优化的一个子领域,研究的是凸集上凸函数最小化的问题。许多类凸优化问题都有多项时间算法,而数学优化一般来说是NP困难的。

couryes-lab™ 为您的留学生涯保驾护航 在代写凸优化Convex Optimization方面已经树立了自己的口碑, 保证靠谱, 高质且原创的统计Statistics代写服务。我们的专家在代写凸优化Convex Optimization代写方面经验极为丰富,各种代写凸优化Convex Optimization相关的作业也就用不着说。

我们提供的凸优化Convex Optimization及其相关学科的代写,服务范围广, 其中包括但不限于:

  • Statistical Inference 统计推断
  • Statistical Computing 统计计算
  • Advanced Probability Theory 高等概率论
  • Advanced Mathematical Statistics 高等数理统计学
  • (Generalized) Linear Models 广义线性模型
  • Statistical Machine Learning 统计机器学习
  • Longitudinal Data Analysis 纵向数据分析
  • Foundations of Data Science 数据科学基础

数学代写|凸优化作业代写Convex Optimization代考|MAP with perfect linear measurements

Suppose $x \in \mathbf{R}^n$ is a vector of parameters to be estimated, with prior density $p_x$. We have $m$ perfect (noise free, deterministic) linear measurements, given by $y=A x$. In other words, the conditional distribution of $y$, given $x$, is a point mass with value one at the point $A x$. The MAP estimate can be found by solving the problem
$$
\begin{array}{ll}
\text { maximize } & \log p_x(x) \
\text { subject to } & A x=y
\end{array}
$$
If $p_x$ is log-concave, this is a convex problem.
If under the prior distribution, the parameters $x_i$ are IID with density $p$ on $\mathbf{R}$, then the MAP estimation problem has the form
$$
\begin{array}{ll}
\operatorname{maximize} & \sum_{i=1}^n \log p\left(x_i\right) \
\text { subject to } & A x=y
\end{array}
$$
which is a least-penalty problem $((6.6)$, page 304$)$, with penalty function $\phi(u)=$ $-\log p(u)$
Conversely, we can interpret any least-penalty problem,
$$
\begin{array}{ll}
\text { minimize } & \phi\left(x_1\right)+\cdots+\phi\left(x_n\right) \
\text { subject to } & A x=b
\end{array}
$$
as a MAP estimation problem, with $m$ perfect linear measurements (i.e., $A x=b)$ and $x_i$ IID with density
$$
p(z)=\frac{e^{-\phi(z)}}{\int e^{-\phi(u)} d u}
$$

数学代写|凸优化作业代写Convex Optimization代考|Prior information

Many types of prior information about $p$ can be expressed in terms of linear equality constraints or inequalities. If $f: \mathbf{R} \rightarrow \mathbf{R}$ is any function, then
$$
\mathbf{E} f(X)=\sum_{i=1}^n p_i f\left(\alpha_i\right)
$$
is a linear function of $p$. As a special case, if $C \subseteq \mathbf{R}$, then $\operatorname{prob}(X \in C)$ is a linear function of $p$ :
$$
\operatorname{prob}(X \in C)=c^T p, \quad c_i= \begin{cases}1 & \alpha_i \in C \ 0 & \alpha_i \notin C\end{cases}
$$
It follows that known expected values of certain functions (e.g., moments) or known probabilities of certain sets can be incorporated as linear equality constraints on $p \in \mathbf{R}^n$. Inequalities on expected values or probabilities can be expressed as linear inequalities on $p \in \mathbf{R}^n$.

For example, suppose we know that $X$ has mean $\mathbf{E} X=\alpha$, second moment $\mathbf{E} X^2=\beta$, and $\operatorname{prob}(X \geq 0) \leq 0.3$. This prior information can be expressed as
$$
\mathbf{E} X=\sum_{i=1}^n \alpha_i p_i=\alpha, \quad \mathbf{E} X^2=\sum_{i=1}^n \alpha_i^2 p_i=\beta, \quad \sum_{\alpha_i \geq 0} p_i \leq 0.3,
$$
which are two linear equalities and one linear inequality in $p$.
We can also include some prior constraints that involve nonlinear functions of $p$. As an example, the variance of $X$ is given by
$$
\operatorname{var}(X)=\mathbf{E} X^2-(\mathbf{E} X)^2=\sum_{i=1}^n \alpha_i^2 p_i-\left(\sum_{i=1}^n \alpha_i p_i\right)^2 .
$$
The first term is a linear function of $p$ and the second term is concave quadratic in $p$, so the variance of $X$ is a concave function of $p$. It follows that a lower bound on the variance of $X$ can be expressed as a convex quadratic inequality on $p$.
As another example, suppose $A$ and $B$ are subsets of $\mathbf{R}$, and consider the conditional probability of $A$ given $B$ :
$$
\operatorname{prob}(X \in A \mid X \in B)=\frac{\operatorname{prob}(X \in A \cap B)}{\operatorname{prob}(X \in B)}
$$

凸优化代写

数学代写|凸优化作业代写Convex Optimization代考|MAP with perfect linear measurements

认为 $x \in \mathbf{R}^n$ 是要估计的参数向量,具有先验密度 $p_x$. 我 们有 $m$ 完美 (无噪声、确定性) 线性测量,由下式给出 $y=A x$. 换句话说,条件分布 $y$, 给定 $x$, 是点质量为 1 的点 $A x$. MAP估计可以通过解决问题找到 maximize $\log p_x(x)$ subject to $A x=y$
如果 $p_x$ 是对数凹的,这是一个凸问题。
如果在先验分布下,参数 $x_i$ 与密度是 IID $p$ 在 $\mathbf{R}$ ,则 MAP 估计问题具有以下形式
$$
\text { maximize } \sum_{i=1}^n \log p\left(x_i\right) \text { subject to } \quad A x=y
$$
这是一个最少惩罚的问题((6.6), 第 304 页), 带罚函数 $\phi(u)=-\log p(u)$
相反,我们可以解释任何最小惩罚问题,
minimize $\phi\left(x_1\right)+\cdots+\phi\left(x_n\right)$ subject to $A x$
作为 MAP 估计问题,具有 $m$ 完美的线性测量(即 $A x=b)$ 和 $x_i$ 具有密度的 IID
$$
p(z)=\frac{e^{-\phi(z)}}{\int e^{-\phi(u)} d u}
$$

数学代写|凸优化作业代写Convex Optimization代考|Prior information

关于多种类型的先验信息 $p$ 可以用线性等式约束或不等式 来表示。如果 $f: \mathbf{R} \rightarrow \mathbf{R}$ 是任意函数,那么
$$
\mathbf{E} f(X)=\sum_{i=1}^n p_i f\left(\alpha_i\right)
$$
是线性函数 $p$. 作为一个特例,如果 $C \subseteq \mathbf{R}$ ,然后 $\operatorname{prob}(X \in C)$ 是线性函数 $p$ :
$$
\operatorname{prob}(X \in C)=c^T p, \quad c_i=\left{1 \quad \alpha_i \in C 0 \quad \alpha_i \notin C\right.
$$
因此,某些函数(例如,矩) 的已知期望值或某些集合 的已知概率可以作为线性等式约束并入 $p \in \mathbf{R}^n$. 期望值 或概率的不等式可以表示为线性不等式 $p \in \mathbf{R}^n$.
例如,假设我们知道 $X$ 意思是 $\mathbf{E} X=\alpha$ ,第二时刻 $\mathbf{E} X^2=\beta ,$ 和prob $(X \geq 0) \leq 0.3$. 这个先验信息可 以表示为
$$
\mathbf{E} X=\sum_{i=1}^n \alpha_i p_i=\alpha, \quad \mathbf{E} X^2=\sum_{i=1}^n \alpha_i^2 p_i=\beta, \quad \sum_{\alpha_i \geq 0}
$$
这是两个线性等式和一个线性不等式 $p$.
我们还可以包括一些涉及非线性函数的先验约束 $p$. 例 如,方差 $X$ 是 (谁) 给的
$$
\operatorname{var}(X)=\mathbf{E} X^2-(\mathbf{E} X)^2=\sum_{i=1}^n \alpha_i^2 p_i-\left(\sum_{i=1}^n \alpha_i p_i\right)^2
$$
第一项是线性函数 $p$ 第二项是凹二次项 $p$, 所以的方差 $X$ 是 凹函数 $p$. 由此得出方差的下限 $X$ 可以表示为上的凸二次 不等式 $p$.
再举个例子,假设 $A$ 和 $B$ 是子集 $\mathbf{R}$ ,并考虑条件概率 $A$ 给 予 $B$ :
$$
\operatorname{prob}(X \in A \mid X \in B)=\frac{\operatorname{prob}(X \in A \cap B)}{\operatorname{prob}(X \in B)}
$$

统计代写请认准statistics-lab™. statistics-lab™为您的留学生涯保驾护航。

金融工程代写

金融工程是使用数学技术来解决金融问题。金融工程使用计算机科学、统计学、经济学和应用数学领域的工具和知识来解决当前的金融问题,以及设计新的和创新的金融产品。

非参数统计代写

非参数统计指的是一种统计方法,其中不假设数据来自于由少数参数决定的规定模型;这种模型的例子包括正态分布模型和线性回归模型。

广义线性模型代考

广义线性模型(GLM)归属统计学领域,是一种应用灵活的线性回归模型。该模型允许因变量的偏差分布有除了正态分布之外的其它分布。

术语 广义线性模型(GLM)通常是指给定连续和/或分类预测因素的连续响应变量的常规线性回归模型。它包括多元线性回归,以及方差分析和方差分析(仅含固定效应)。

有限元方法代写

有限元方法(FEM)是一种流行的方法,用于数值解决工程和数学建模中出现的微分方程。典型的问题领域包括结构分析、传热、流体流动、质量运输和电磁势等传统领域。

有限元是一种通用的数值方法,用于解决两个或三个空间变量的偏微分方程(即一些边界值问题)。为了解决一个问题,有限元将一个大系统细分为更小、更简单的部分,称为有限元。这是通过在空间维度上的特定空间离散化来实现的,它是通过构建对象的网格来实现的:用于求解的数值域,它有有限数量的点。边界值问题的有限元方法表述最终导致一个代数方程组。该方法在域上对未知函数进行逼近。[1] 然后将模拟这些有限元的简单方程组合成一个更大的方程系统,以模拟整个问题。然后,有限元通过变化微积分使相关的误差函数最小化来逼近一个解决方案。

tatistics-lab作为专业的留学生服务机构,多年来已为美国、英国、加拿大、澳洲等留学热门地的学生提供专业的学术服务,包括但不限于Essay代写,Assignment代写,Dissertation代写,Report代写,小组作业代写,Proposal代写,Paper代写,Presentation代写,计算机作业代写,论文修改和润色,网课代做,exam代考等等。写作范围涵盖高中,本科,研究生等海外留学全阶段,辐射金融,经济学,会计学,审计学,管理学等全球99%专业科目。写作团队既有专业英语母语作者,也有海外名校硕博留学生,每位写作老师都拥有过硬的语言能力,专业的学科背景和学术写作经验。我们承诺100%原创,100%专业,100%准时,100%满意。

随机分析代写


随机微积分是数学的一个分支,对随机过程进行操作。它允许为随机过程的积分定义一个关于随机过程的一致的积分理论。这个领域是由日本数学家伊藤清在第二次世界大战期间创建并开始的。

时间序列分析代写

随机过程,是依赖于参数的一组随机变量的全体,参数通常是时间。 随机变量是随机现象的数量表现,其时间序列是一组按照时间发生先后顺序进行排列的数据点序列。通常一组时间序列的时间间隔为一恒定值(如1秒,5分钟,12小时,7天,1年),因此时间序列可以作为离散时间数据进行分析处理。研究时间序列数据的意义在于现实中,往往需要研究某个事物其随时间发展变化的规律。这就需要通过研究该事物过去发展的历史记录,以得到其自身发展的规律。

回归分析代写

多元回归分析渐进(Multiple Regression Analysis Asymptotics)属于计量经济学领域,主要是一种数学上的统计分析方法,可以分析复杂情况下各影响因素的数学关系,在自然科学、社会和经济学等多个领域内应用广泛。

MATLAB代写

MATLAB 是一种用于技术计算的高性能语言。它将计算、可视化和编程集成在一个易于使用的环境中,其中问题和解决方案以熟悉的数学符号表示。典型用途包括:数学和计算算法开发建模、仿真和原型制作数据分析、探索和可视化科学和工程图形应用程序开发,包括图形用户界面构建MATLAB 是一个交互式系统,其基本数据元素是一个不需要维度的数组。这使您可以解决许多技术计算问题,尤其是那些具有矩阵和向量公式的问题,而只需用 C 或 Fortran 等标量非交互式语言编写程序所需的时间的一小部分。MATLAB 名称代表矩阵实验室。MATLAB 最初的编写目的是提供对由 LINPACK 和 EISPACK 项目开发的矩阵软件的轻松访问,这两个项目共同代表了矩阵计算软件的最新技术。MATLAB 经过多年的发展,得到了许多用户的投入。在大学环境中,它是数学、工程和科学入门和高级课程的标准教学工具。在工业领域,MATLAB 是高效研究、开发和分析的首选工具。MATLAB 具有一系列称为工具箱的特定于应用程序的解决方案。对于大多数 MATLAB 用户来说非常重要,工具箱允许您学习应用专业技术。工具箱是 MATLAB 函数(M 文件)的综合集合,可扩展 MATLAB 环境以解决特定类别的问题。可用工具箱的领域包括信号处理、控制系统、神经网络、模糊逻辑、小波、仿真等。

Post a Comment

您的电子邮箱地址不会被公开。 必填项已用*标注