単純なサービスのHTTPサーバ(nodeJs)を使用します

1.まず、空のフォルダを構築

ディレクトリ内で直接2.グローバルHTTPサーバーインストール 

3.新しいフォルダにあなたのフロントエンドパッケージ化プロジェクトフォルダを置きます。

4.その後、HSを入力し./pub

5.サービスの開始この時点で、プロジェクトが同じローカルエリアネットワークにアクセスすることができます。http://172.16.17.225:8080/index.html注:デフォルトフォルダへのパスを定義していないのhttpサーバが公開されています。

これは、と言われて私たちの実行ファイルのディレクトリのデフォルトのindex.htmlファイルが、成功したブロガー(/index.htmlが後に手動で直接ポート)をテストしていません。

6.  以下の注文githubののいくつかであります

 

-pまたは--portポート(デフォルトで8080)を使用するには

-a 使用するアドレス(デフォルトは0.0.0.0です)

-dディレクトリ一覧(デフォルトtrue

-i表示AUTOINDEX(デフォルトtrue

-gまたは--gzip(デフォルト有効になっているfalse時間)を、それがされます./public/some-file.js.gz置き換えられ./public/some-file.jsたファイルの圧縮バージョンが存在する場合とgzip要求受付GZIPエンコーディング。brotliも有効にした場合、それは最初のサービスbrotliをしようとします。

-bまたは--brotli(デフォルト有効になっているfalse時間)を、それがされます./public/some-file.js.br置き換えられ./public/some-file.jsたファイルが存在する場合にbrotliリクエスト受付のバージョンの圧縮br符号化します。gzipでも有効になっている場合、それは最初brotliを提供しようとします。

-eまたは--ext(デフォルトではありませんデフォルトのファイル拡張子の場合html

-sまたは--silent出力ログメッセージを抑制

--cors通过Access-Control-Allow-Origin标头启用CORS

-o [path]启动服务器后打开浏览器窗口。(可选)提供要打开的URL路径。例如:-o / other / dir /

-c设置缓存控制max-age标头的缓存时间(以秒为单位),例如-c1010秒(默认为3600)。要禁用缓存,请使用-c-1

-U--utc在日志消息中使用UTC时间格式。

--log-ip启用客户端IP地址的记录(默认值:) false

-P或者将--proxy所有无法在本地解析的请求代理到给定的URL。例如:-P http://someurl.com

--username 基本身份验证的用户名[无]

--password 基本身份验证密码[无]

-S--ssl启用https。

-C--certssl cert文件的路径(默认值:) cert.pem

-K--keyssl密钥文件的路径(默认值:) key.pem

-r--robots提供/robots.txt(其内容默认为User-agent: *\nDisallow: /

-h--help打印此列表并退出。

 

 

 

 

 

-p 端口号 (默认 8080)
-a IP 地址 (默认 0.0.0.0)
-d 显示目录列表 (默认 'True')
-i 显示 autoIndex (默认 'True')
-e or --ext 如果没有提供默认的文件扩展名(默认 'html')
-s or --silent 禁止日志信息输出
--cors 启用 CORS via the Access-Control-Allow-Origin header
-o 在开始服务后打开浏览器-c 为 cache-control max-age header 设置Cache time(秒) , e.g. -c10 for 10 seconds (defaults to '3600'). 禁用 caching, 则使用 -c-1.-U 或 --utc 使用UTC time 格式化log消息
-P or --proxy Proxies all requests which can't be resolved locally to the given url. e.g.: -P http://someurl.com
-S or --ssl 启用 https
-C or --cert ssl cert 文件路径 (default: cert.pem)
-K or --key Path to ssl key file (default: key.pem).
-r or --robots Provide a /robots.txt (whose content defaults to 'User-agent: *\nDisallow: /')
-h or --help 打印以上列表并退出

おすすめ

転載: www.cnblogs.com/mrbabibo/p/11206563.html