間違った質問メモ
- N-最近傍
- プレオーダートラバーサル、ミドルオーダートラバーサル、ポストオーダートラバーサル
- 循環キュー
- STLで優先キューを実装するために使用されるデータ構造
- 過剰適合を減らす方法
- アンダーフィッティングを減らす方法
- Xgboostは外れ値に敏感です
- LIFOは後入先出を意味します
- クラスドメインインターフェース方程式法では、パーセプトロンアルゴリズムは、線形分離不可能性の場合に分類問題の近似または正確な解を見つけることができない方法です。
- N枚のディスクのハノイの塔の移動数
- 任意の分布を[0,1]一様分布に減らすことができます
- ヒープの複雑さ
- 挿入ソートでN番目の数値を比較する必要があるのは何回ですか
- チェーンアドレス方式とハッシュ関数
- 複数の隠れ層の利点
- プーリングの利点
ブラッシング練習のための間違った質問帳...
N-最近傍
N最近傍分類は、ポイントに最も近いN個のデータポイントのほとんどがどのカテゴリに属し、どのカテゴリに分類されるかを示します。
プレオーダートラバーサル、ミドルオーダートラバーサル、ポストオーダートラバーサル
プレオーダートラバーサル:中央、左、右
ミドルオーダートラバーサル:左、中央、右
ポストオーダートラバーサル:左、右、中央
循環キュー
[Niuke.comのzhisheng_blogから]
循環キューの関連条件と式:
队尾指针是rear,队头是front,其中QueueSize为循环队列的最大长度
1.队空条件:rear==front
2.队满条件:(rear+1) %QueueSIze==front
3.计算队列长度:(rear-front+QueueSize)%QueueSize
4.入队:(rear+1)%QueueSize
5.出队:(front+1)%QueueSize
STLで優先キューを実装するために使用されるデータ構造
回答:ヒープ
過剰適合を減らす方法
- より多くのトレーニングデータを使用する
- モデルの複雑さを軽減する(深さ、ニューロンの数)
- 正則化
- 統合学習
- 特徴選択を通じて特徴の数を減らす
アンダーフィッティングを減らす方法
- 新機能の追加
- モデルの複雑さを増す
- 正則化係数を減らす
Xgboostは外れ値に敏感です
LIFOは後入先出を意味します
クラスドメインインターフェース方程式法では、パーセプトロンアルゴリズムは、線形分離不可能性の場合に分類問題の近似または正確な解を見つけることができない方法です。
疑似逆法:動径基底基底(RBF)ニューラルネットワークトレーニングアルゴリズム。動径基底基底は、線形分離不可能な状況を解決します。
パーセプトロンアルゴリズム:線形分類モデル、非線形問題を処理できません。
HKアルゴリズム:重みベクトルは最小平均二乗誤差基準の下で取得され、2次基準は非線形問題を解決します。
ポテンシャル関数法:ポテンシャル関数は非線形です。
N枚のディスクのハノイの塔の移動数
回答:2 ^ n -1
任意の分布を[0,1]一様分布に減らすことができます
- 任意の分布を[0,1]一様分布に減らすことができます
- Box-Muller-Wienerアルゴリズムにより、正規分布と一様分布の間の変換を実現できます。
ヒープの複雑さ
ビルドヒープ:O(n)操作ヒープ:O(logn)
挿入ソートでN番目の数値を比較する必要があるのは何回ですか
その前にM個の大きな数字があるので、M +1倍です。
チェーンアドレス方式とハッシュ関数
この方法を使用してルックアップの平均数を計算する場合、空のハッシュアドレスもルックアップの数を1回計算する必要があります。
複数の隠れ層の利点
隠れノードの数を指数O(2 ^(n-1))から線形O(3(n-1))に減らします
プーリングの利点
平均的なプーリング:背景のより良い保存。
最大プーリング:テクスチャの抽出効果が向上します。