Предмет: Алгебра, автор: dktaelw

Точка M расположенная на единичной полуокружности имеет координату y=√2/2. Какова может быть координата x этой точки? ​

Приложения:

ГАЗ52: √2/2 или -√2/2

Ответы

Автор ответа: axatar
1

Ответ:

Координаты х могут быть -\dfrac{\sqrt{2} }{2} или \dfrac{\sqrt{2} }{2}

Объяснение:

На единичной полуокружности каждой точке с ординатами y₀ соответствуют 2 точки с абсциссой х (см. рисунок).

Точке \tt y=\dfrac{\sqrt{2} }{2} соответствуют 2 точки (соответствия указаны):

\tt x_1=-\dfrac{\sqrt{2} }{2} или \tt x_2=\dfrac{\sqrt{2} }{2}.

#SPJ1

Приложения:
Похожие вопросы
Предмет: Алгебра, автор: khonkor75
Предмет: Английский язык, автор: alsu64254
Предмет: Информатика, автор: mragzam19
Мы выбрали для обучения регрессионную модель, используя алгоритм линейной регрессии с градиентным спуском. Какой из следующих ответов правильный?

A. Мы используем градиентный спуск для обновления весового вектора W на каждой итерации алгоритма, но мы не найдем хорошую модель, если обучающий набор не является репрезентативным набором данных
B.Все ответы неверны
C. Градиентный спуск можно было бы использовать для линейной регрессии, если обученная модель линейно разделима
D.Мы используем градиентный спуск для обновления весового вектора W на каждой итерации алгоритма, и мы получим хорошую модель, независимо от качества объектов, поскольку градиентный спуск является выпуклой функцией для этой задачи






We chose to train a regression model, using the linear regression algorithm with gradient descent. Which of the following answers is correct?

A. We use the gradient descent, to update the weight vector W, in every iteration of the algorithm, but we will not find a good model if the training set is not a representative dataset
B.All the answers are incorrect
C. Gradient descent could be used for linear regression, if the trained model is linearly separatable
D.We use the gradient descent, to update the weight vector W, in every iteration of the algorithm and we will get a good model, regardless the quality of the features, since gradient descent is a convex function for this problem
Предмет: Қазақ тiлi, автор: tulebaevamir391