◎正当な理由による書き込みの削除について:1レス¥5000円 1スレ¥20000円の技術作業料が発生します。一回分だけの料金で当方管理下の全サイトで作業が実施されます。支払い方法はAmazonギフト券番号。連絡先は当サイトの登録emailへ。

【AIコラ】fakeapp その2【革命】 [無断転載禁止]©bbspink.com YouTube動画>7本 ->画像>56枚


動画、画像抽出 || この掲示板へ 類似スレ 掲示板一覧 人気スレ 動画人気順

このスレへの固定リンク: http://2chb.net/r/ascii/1525096908/
ヒント:2chスレのurlに http://xxxx.2chb.net/xxxx のようにbを入れるだけでここでスレ保存、閲覧できます。

1/名無しさん[1-30].jpg2018/04/30(月) 23:01:48.39ID:aNuBplMS0
・fakeappの技術交換スレです
・人工知能コラージュ作成ソフト http://www.fakeapp.org/


関連スレ
【アイコラ】 水玉コラ16 【革命】 [無断転載禁止]©bbspink.com
https://phoebe.bbspink.com/test/read.cgi/ascii/1512821304/

白水着の画像加工して乳首透けさせる part5 [無断転載禁止]©bbspink.com
https://phoebe.bbspink.com/test/read.cgi/ascii/1514602063/
※前スレ
【AIコラ】fakeapp その1【革命】
http://phoebe.bbspink.com/test/read.cgi/ascii/1518391672/

2うふ〜んNGNG
うふ〜ん

3またwww論破されたレスwww2018/05/01(火) 00:25:27.00ID:2+UM91JO0
>>2

3 : /名無しさん[1-30].jpg2018/03/11(日) 18:00:15.55 ID:1tI1Ht0Na
チョン自爆w自分で造った造語が正しいってwなんでもオリジナルニダーのチョンそのものwww

↑↑↑↑↑↑↑↑↑↑↑↑
造った造語wwww

日本語を知らないwww
>造語
>新語をつくること。

造語という言葉自体が「作る」ことを意味するのにwww造った造語www

頭が頭痛とか言うバカwww同類w

4/名無しさん[1-30].jpg2018/05/01(火) 01:52:40.39ID:Oy2LsQ++0
あらら、またDiscord間に合わなかった。
動画公開してツッコミ入れて欲しかったけど、仕方ない。
別のコミュニティ探しに行くかー

5/名無しさん[1-30].jpg2018/05/01(火) 01:54:27.57ID:MN7Cibbk0
危ない危ない
スマホで普段読んでたから前スレ1000行ったら自動的に読めなくなるとこだった
PCでログ保存する前だったら偉いことになるトコだった
前スレ>986氏レスありがとうございました
まだ試行錯誤中なので色々試してみたいと思います
同じ環境の人へのdat落ち先延ばしのためこちらで失礼

6/名無しさん[1-30].jpg2018/05/01(火) 07:17:43.96ID:VFKMtzKs0
他にコミュニティってあるんか?
日本語の関連ページすらほとんど見つからんのだが。

7/名無しさん[1-30].jpg2018/05/01(火) 08:45:40.66ID:uyv8K6mH0
作ってる人はすぐ入れるようにしてほしい・・・

8/名無しさん[1-30].jpg2018/05/01(火) 10:38:24.65ID:MN7Cibbk0
さて、貧弱なCUDA非対応のグラボなのでcpuオンリーの実験してたのだけど、対応品にしたことで頑張ろうと思った矢先、顔の抽出でうまく行かないのでmyfakeappで切り出し中
これ放り込んで頑張るぞー(というか頑張るのはグラボだけどw)

9/名無しさん[1-30].jpg2018/05/01(火) 15:08:27.69ID:LBUZkTa+0
ちょうど同じなんだけど、open face swapにて
DLL load faild: The specified module could not be found.
て出て顔の切り出しができないです
動画からコマの取り出しはできたのですが、そこから先進みません
カーソルあわせて赤くなってる箇所が「問題あるよ」てことなんですよね?
CUDAとかVisual Studio入れなおしたほうがいいかと思ってみてみたらVisual Studioが
数年前から2015より新しいの入ってるし、これも消した方がいいんでしょうか?

動作させるまでのセットアップが、今までこういうの無縁だった人にはハードル高くて難しいですね

10/名無しさん[1-30].jpg2018/05/01(火) 15:41:05.74ID:VMt4REcCd
>>9
動画からコマの切り出しはffmpegというツールがやっていて、その先からがfaceswapの仕事になります。エラーがmodule見つからないと言っているので、何かが入っていなくて失敗してるんでしょうね。

11/名無しさん[1-30].jpg2018/05/01(火) 15:43:09.88ID:u2z10i1F0
PCに詳しい人、俺のPC晒すからどこがダメなのか教えてくれ!

Core i7-2600 CPU @ 3.40GHz
メモリ 24GB
GeForce GTX 560

全部だめってことは…ないよね?

12/名無しさん[1-30].jpg2018/05/01(火) 15:55:56.85ID:VMt4REcCd
>>11
GPUのメモリはどれくらい?

13/名無しさん[1-30].jpg2018/05/01(火) 16:26:10.19ID:u2z10i1F0
>>12
DierctX診断ツールで 
DACの種類 : Interegated RAMDAC
メモリ合計 : 4051MBとあるけど
詳しくわからぬ。。。

14/名無しさん[1-30].jpg2018/05/01(火) 16:35:26.83ID:VMt4REcCd
>>13
GPUのメモリ4Gなら十分のはずだけど…?

15/名無しさん[1-30].jpg2018/05/01(火) 16:38:31.24ID:VMt4REcCd
とりあえず、動かないという人は、
https://www.deepfakes.club/openfaceswap-deepfakes-software/
をちゃんと読んだらいいんでは?

英語苦手なら、google chrome入れて翻訳して読め!

16/名無しさん[1-30].jpg2018/05/01(火) 16:43:13.01ID:u2z10i1F0
>>12
>>14-15
ありがとう!

17/名無しさん[1-30].jpg2018/05/01(火) 17:30:47.48ID:DMLGvU2C0
動かない人はどの工程でダメになってるかとかエラー文とか書いたほうがいいと思うよ

18/名無しさん[1-30].jpg2018/05/01(火) 19:59:53.09ID:QO0PUqYNM
GPUなしMac men達はGoogle colab使えばええんやで12時間で一旦接続切れるけど無料だしな

19/名無しさん[1-30].jpg2018/05/01(火) 21:21:26.99ID:vJNnendZ0
My fake以外で顔の切り抜きができんねー
ガッキーのインタビューのやつすらできないからPCに問題あるのかなあ?

20/名無しさん[1-30].jpg2018/05/01(火) 22:16:05.98ID:k4w6TeSGM
>>19
cudnn入れた?
myfakeappって入れてなくても動いてた様な

21/名無しさん[1-30].jpg2018/05/02(水) 14:30:55.65ID:O2bPxM6L0
管理人さん。どうもです。昨日為緊急離脱した○○ちゃんです。

ローダーとdiscord.ggを操作中にマルウェア感染してしまったので、
嫌なタイミングだったので一度離脱しました。
コメントも残せなくてすいません。かなり焦ってしまって。。

再インスコで復帰に今日までかかってしまいました。

すいませんが、また誘ってもらえるのは可能ですか?(同じ名前とアイコンで入るので。。)
難しいようであれば、また次の募集でなんとか試みます。。(T T)

22/名無しさん[1-30].jpg2018/05/02(水) 15:12:38.14ID:ELznVbfo0
わかっとるわ!て人はスルーしてください

やったこと(64bitのwindows前提)
・myfakeは7でも動いたがさすがにopenfaceは動かなかったので諦めて10にした
・正しいバージョンのcuda、cudnn、visual studioを一回消して入れ直した
・グラボも1060の6Gにした(ドライバはwindows任せ)

前スレがかなり初手に有意義な話してるので、生きてるうちに保存推奨

23/名無しさん[1-30].jpg2018/05/02(水) 16:07:52.10ID:yB4mEyaU0
openfakeswapsで今初めての学習中なんだが、早く終わるならdfakerとやらを使ったほうがいいよね。
歯車マーク押して出てくるコマンドの最後に_expとうつのか、config.txtにそううちこむのか、はたまたどちらもちがっているのか、自分でも調べているがなかなか正解にたどりつかないので教えて

24/名無しさん[1-30].jpg2018/05/02(水) 16:27:58.83ID:yB4mEyaU0
dfakerじゃないね、実験的 だね。訂正します。

25/名無しさん[1-30].jpg2018/05/02(水) 16:53:26.31ID:VRH1id8pa
すいません
Bにニコラスケイジ入れて学習させて10時間程でLoss値が0.02を切ったとこで、別のニコラスケイジの動画をBに入れて学習させたら15分ぐらいで0.02を切りました。
この場合、0.02を切っても10時間ぐらいは学習継続したほうがいいですか?

26/名無しさん[1-30].jpg2018/05/02(水) 17:00:36.73ID:3aEFiLbs0
なんとか摘出終わったのに今度はtrainでエラーが起きます…
原因わかる方いないでしょう?

27/名無しさん[1-30].jpg2018/05/02(水) 17:44:12.91ID:FgO7M4+9M
>>26
どんな環境で
何を使って
どんなエラーが出たの?

28/名無しさん[1-30].jpg2018/05/02(水) 18:14:21.31ID:KTXDBYacd
>>20
myfakeappは、CPUの代わりにGPUを使用する場合は、CUDA 9.0とcuDNN 7.0をインストールしろと書いてあるから、myfakeapp以外で、顔抽出に失敗してる人は、CUDAなんかの設定を失敗してるんでしょうね。

29/名無しさん[1-30].jpg2018/05/02(水) 18:15:50.71ID:KTXDBYacd
>>25
convertしてみて、上手く行ってなければ、train再開したらいいんじゃない?

30/名無しさん[1-30].jpg2018/05/02(水) 18:34:12.59ID:hgdleSe30
>>28
なるほどありがと

31/名無しさん[1-30].jpg2018/05/02(水) 18:40:38.62ID:3aEFiLbs0
>>27
fakeapp 2.1.0で
Training process ended ,if you did not end it yourself, an error occurred
って出てTrainが進まない状況です。

32/名無しさん[1-30].jpg2018/05/02(水) 18:47:24.49ID:US254o8Kp
顔抽出できん奴は、cudaのバージョン違いとかcudnn入れてないとか下準備が足りん。
トレイン始まらん奴は設定欲張ってメモリが足りん。
だいたいこの2択だな。

33/名無しさん[1-30].jpg2018/05/02(水) 18:54:59.28ID:3aEFiLbs0
設定一番低いのになぁ…

34/名無しさん[1-30].jpg2018/05/02(水) 18:57:59.21ID:1QoVAqde0
>>30
もしかして抽出した画像に256以外のゴミがはいってんじゃね?

35/名無しさん[1-30].jpg2018/05/02(水) 18:58:09.39ID:RW6DL1Mn0
>>32
単にpath切れてないということもある。

36/名無しさん[1-30].jpg2018/05/02(水) 19:09:10.42ID:ELznVbfo0
エラー内容も英語だけど、「Bの画像枚数以上の数値にすんなよ」とか出たりしてるよね
ようやくカタチになってきたからどう育つのか楽しみ

37/名無しさん[1-30].jpg2018/05/02(水) 19:41:19.35ID:QxVCW/sX0
>>33
そういう書き方すると誰も教えてくれなくなるぞ

38/名無しさん[1-30].jpg2018/05/02(水) 19:53:47.33ID:9MYHaakRM
>>31
fakeappならlog.txtが出来てるはずなので
その内容を貼るか
それ読んで解決してちょ

39/名無しさん[1-30].jpg2018/05/02(水) 20:09:54.02ID:3aEFiLbs0
>>37
いや、一番低いのにしたのに何故なんだ…っていう意味でした。

40/名無しさん[1-30].jpg2018/05/02(水) 20:14:13.42ID:3aEFiLbs0
>>38 ありがとうございます!
調べたら Failed to execute script train ってでます。
実行に失敗しましたって意味だけっぽいんでどこを直せばいいのかわからなくて…

41/名無しさん[1-30].jpg2018/05/02(水) 20:18:21.88ID:L/aB7eOr0
一番低いって、ノード、レイヤー、バッチはいくつ?あとgpuは何?

42/名無しさん[1-30].jpg2018/05/02(水) 20:33:22.47ID:yB4mEyaU0
自分環境はgtx1060 6GB RAM 16GB i7 4790 だけど今のところエラーはでてない。 顔抽出エラーはCUDAがうまくはいってない。 ところで‥、openfakeswapで実験的な顔学習はどうすればできるのか教えてくれんかね‥

43/名無しさん[1-30].jpg2018/05/02(水) 20:39:47.86ID:3aEFiLbs0
>>41
ノード16.レイヤー1.バッチ16
GPUはNVIDIA GeForce GTX650
です

44/名無しさん[1-30].jpg2018/05/02(水) 20:46:17.82ID:Uofa2EqXd
>>40
log.txt全部さらせ!

45/名無しさん[1-30].jpg2018/05/02(水) 21:04:55.31ID:5/zuw+Yv0
>>42
なんのこと言ってるのよ
GUNのことならむしろ時間かかるし、それくらいの知識ならおとなしくデフォ設定使っといた方がいいよ。1番安定してるのがfaceswapだから。

ちなみにMODELのとこの設定のTrainerのところで選べばいいだけ

46/名無しさん[1-30].jpg2018/05/02(水) 21:06:42.95ID:3aEFiLbs0
>>44
undefined[9708]Failed to execute script train
これで書いてるの全部です。

47/名無しさん[1-30].jpg2018/05/02(水) 21:14:53.84ID:Uofa2EqXd
>>46
うーん、わからない。
ちなみに、顔の抽出はちゃんとできていて、data_Aとdata_Bのフォルダに256×256の顔だけの画像が一杯入ってるんだよね?

48/名無しさん[1-30].jpg2018/05/02(水) 21:16:45.36ID:L/aB7eOr0
パスの指定間違い。
パスに日本語が含まれる。
パスの最後に\つけた方がいいっていう時も。
学習の画像が多すぎ。
フォルダに余計な画像とかが紛れてる。

思いつくので、こんな感じ。

49/名無しさん[1-30].jpg2018/05/02(水) 22:05:13.99ID:yB4mEyaU0
>>45
おお、ありがとう。そうなんやね。

50/名無しさん[1-30].jpg2018/05/02(水) 22:06:29.23ID:yB4mEyaU0
学習の画像多すぎるとだめなのか。二時間くらいのavそのままぶち込んでるんだよね

51/名無しさん[1-30].jpg2018/05/02(水) 22:45:19.83ID:9MYHaakRM
>>48
因みにフォルダ名にピリオドが入っててもダメなのよ

52/名無しさん[1-30].jpg2018/05/02(水) 23:01:43.73ID:3aEFiLbs0
>>47
フォルダ名は違いますが256の画像だけ入っています。
スペックの問題ではないですよね?

53/名無しさん[1-30].jpg2018/05/02(水) 23:03:52.63ID:3aEFiLbs0
>>48
パスってどこにあるかコピペするやつですよね?
画像は1400枚とかで、顔の画像しかなかったです。
ありがとうございます。最後に\つけるのやってみます!

54/名無しさん[1-30].jpg2018/05/02(水) 23:17:00.91ID:pL/5S0Txa
わざわざバグだらけの2.1使ってるのはなんで?

55/名無しさん[1-30].jpg2018/05/02(水) 23:24:10.83ID:RW6DL1Mn0
>>52
fakeapp2.2を入れるとどうなる?
https://www.fakeapp.org/

あと、画像の枚数を半分に減らすとどうなる?

56/名無しさん[1-30].jpg2018/05/02(水) 23:25:03.78ID:3aEFiLbs0
>>54
そうなんですか!?情弱でした…

57/名無しさん[1-30].jpg2018/05/02(水) 23:25:36.56ID:3aEFiLbs0
>>55
2.2だと摘出の段階でエラーになるんです…

58/名無しさん[1-30].jpg2018/05/02(水) 23:42:07.49ID:9MYHaakRM
>>52
スペックどこかに書いてたっけ?

59/名無しさん[1-30].jpg2018/05/02(水) 23:52:48.76ID:pL/5S0Txa
多分スペック足りてないね

60/名無しさん[1-30].jpg2018/05/03(木) 00:11:19.86ID:SUFJV7OO0
>>58
GPUはNVIDIA GeForce GTX650 です

61/名無しさん[1-30].jpg2018/05/03(木) 00:15:22.69ID:RDrUP9uh0
vramがイチギガなんじゃ

62/名無しさん[1-30].jpg2018/05/03(木) 00:47:00.96ID:SUFJV7OO0
>>61
vram1ギガでした。
1ギガじゃ出来ないですかね?

63/名無しさん[1-30].jpg2018/05/03(木) 00:47:40.98ID:SUFJV7OO0
こんな情弱に付き合ってくれている方達ほんとうにありがとうございます。

64/名無しさん[1-30].jpg2018/05/03(木) 00:50:28.88ID:RDrUP9uh0
>>63
最近メルカリでpc買ってくれた人かな(冗談)
イチギガじゃきついからエラー吐いてるんじゃないの。しらないけど。fakeappのサイトに最低環境とかかいてあるんじゃないの。翻訳してみて

65/名無しさん[1-30].jpg2018/05/03(木) 01:02:39.38ID:I2RAN03h0
なんかレス返してて損した。discodeに行くのも判るは

自分が動かす物が何かもどんな事が必要かも判ってないならダメでしょ

66/名無しさん[1-30].jpg2018/05/03(木) 01:26:18.64ID:86yyNN910
OpenFaceSwapインストールするとシステム環境変数のpathが上書きされる恐ろしいバグ治った?

67/名無しさん[1-30].jpg2018/05/03(木) 01:28:57.44ID:RDrUP9uh0
そんな気張ってレスするのは結構だが誰ウェルスタンスのほうがコミュニティの場としては健全だと思うよ。変だなと思ったらスルーしたまえ

68/名無しさん[1-30].jpg2018/05/03(木) 01:33:39.73ID:RDrUP9uh0
トレーニングの様子とか見てるとすげえな。ホント。恐ろしさすら感じる

69/名無しさん[1-30].jpg2018/05/03(木) 02:19:55.08ID:SUFJV7OO0
>>64
その可能性もあるのでグラボ増設する予定です!
ありがとうございます!

70/名無しさん[1-30].jpg2018/05/03(木) 03:50:20.04ID:IWhfdR8Ja
これ以外にアイコラを
作るAIって現時点で存在するの?

71/名無しさん[1-30].jpg2018/05/03(木) 06:36:46.71ID:BM6Qs3uK0
>>62
最低でも2ギガ、普通に使いたいなら4ギガは必要。
fakeappは、画像にロゴが入ってしまうし、中身公開してないのであまりお勧めできない。
どうせやるなら、他のにした方が良いよ。

72/名無しさん[1-30].jpg2018/05/03(木) 07:25:43.97ID:yS/LrlK90
多分ニコ動で見て挑戦してみようって新規さんもいるんだろうけど、
あの動画で使ってるアプリはいわば旧式で、特に理由が無いのならopenfaceswap超推奨です
操作感が変更されてるので初回は戸惑うと思うけど、一回最後までやれればあとは簡単なので頑張って

という自分も実際動画まで作成するのは最近できるようになったばかりなので頑張ります

73/名無しさん[1-30].jpg2018/05/03(木) 08:10:22.08ID:57+CWNSD0
Fakeappってロゴ消すことはできない?

74/名無しさん[1-30].jpg2018/05/03(木) 09:09:22.08ID:Y8/fTHt4r
>>34
fakeとかで動画から出てきた画像しか使ってないんだがゴミが混ざってたりするんかな
チェックしてみるわ

75/名無しさん[1-30].jpg2018/05/03(木) 09:45:56.70ID:ujUx8dsN0
新規っぽい人急激に増えたよね
使ってるソフトによって環境異なるからここ見る前にインストール先に書いてあることはGoogle翻訳使ってちゃんと読んで欲しい

わからないことあれば、
・グラボなに使ってるか(何GBかも)
・使ってるソフト(fakeapp,OpenFaceSwap...)
・エラー出てたらエラーのコピペ

は最低限書いてから質問してくれないと答える方も大変

76/名無しさん[1-30].jpg2018/05/03(木) 09:47:02.12ID:Y8/fTHt4r
気を付けるわ

77/名無しさん[1-30].jpg2018/05/03(木) 10:01:16.02ID:+kpVQO30a
>>72
動画コメでも説明されとるからお前がドヤ顔しなくてええで

78/名無しさん[1-30].jpg2018/05/03(木) 10:35:43.38ID:S2nyMqPg0
長期的に見ると先鋭化したコミュニティは結局廃れるから誰ウェルに賛成
ヤバそうな作例はクローズドなところででも投下すればいいよ

79/名無しさん[1-30].jpg2018/05/03(木) 11:37:22.20ID:ujUx8dsN0
>>21
そういう事情でしたか!
本日18:00くらいから24時間一時的なメンバー(役職が与えられない限り、切断時に自動的にキックされます。)の招待コードを貼りますので管理人のねるアイコンの方にDM下さい。

また、前回入り損ねた動画製作者の方も同時に募集させて頂きます。招待コードから参加後、#最初に読んでねに書いてある方法でDM下さい。
今回は既に作れている方の募集になります。

80/名無しさん[1-30].jpg2018/05/03(木) 13:42:30.98ID:ICBo4KSH0
>>79
ありがとうございます!m(_ _)m

81/名無しさん[1-30].jpg2018/05/03(木) 14:35:42.69ID:yS/LrlK90
フェラ顔はそのままだと難しいね
「何かを咥える」「何かを舐める」という画像がBの人物で用意できれば可能なんだろうか?
無かった場合は、前スレで出てた「Aからそのシーンを混ぜてみる」なんてのもあったけど有効かどうかもまだ不明・・

そのままだとアゴの下から舌が伸びるお化け映像になってしまうw

82/名無しさん[1-30].jpg2018/05/03(木) 15:04:50.59ID:57+CWNSD0
フェラが成功しているフェイクポルノってある?

83/名無しさん[1-30].jpg2018/05/03(木) 15:08:29.31ID:SUFJV7OO0
openfaceswapの詳しい使い方とかググっても見つからないけどみんな自力でやってる感じですか?
videoから摘出は出来たけどimageAやってもalignAに何も出なくて次に進まない

84/名無しさん[1-30].jpg2018/05/03(木) 16:00:26.09ID:BM6Qs3uK0
>>83
openfaceswapがダウンロードできるサイトで、あれだけ詳しく解説してるのに、何を言っているのかね、君は?

85/名無しさん[1-30].jpg2018/05/03(木) 16:03:52.20ID:yS/LrlK90
>>82
あったような気もしたんだけど気のせいかも
>>83
入れるべきcuda、スペック等問題無い前提で
openfaceはどうもフォルダ名ちゃんとつけないとダメっぽいので、
ものぐさにaとかnewとかにしてもエラー出た記憶があります
AとBにfacesの空フォルダ先に作って、それを指定してあげてみてください

86/名無しさん[1-30].jpg2018/05/03(木) 16:08:45.79ID:yS/LrlK90
ときにgifをopenfaceで動画化までできた人います?
まだ試してないのだけど、avから抜き出す作業に疲れてきて、エロgifスレですでに切り取られたシーン使えるならそっちのが楽かも、って思ってきてますw
作業中のお試し動画が溜まってきて、「これ顔がうまく入れ変わっても駄作じゃね?」なんて思い始めると次を探してしまう無限ループ・・

87/名無しさん[1-30].jpg2018/05/03(木) 17:40:36.28ID:57+CWNSD0
AVから抜き出すのは俺はAGDRec_132F使って直取りしてるから楽だわ

88/名無しさん[1-30].jpg2018/05/03(木) 18:10:51.76ID:ujUx8dsN0
79です。よく考えると24時間DMチェックするわけにもいかないので6時間の招待にさせて頂きます。役職が与えられないとキックされます。
https://discord.gg/3MuNS
24時間と言ってしまったので製作者で入りそびれた方いたらレス残しといてほしいです!

89/名無しさん[1-30].jpg2018/05/03(木) 19:04:28.35ID:iRbxWWBh0
普通の招待コードで24時間以内にDM送ってなければ後からキックでいいのでは?

90/名無しさん[1-30].jpg2018/05/03(木) 19:26:42.07ID:ujUx8dsN0
>>89
確かに。まぁ今回は21の招待がメインだったので次回もしあればその方法で。

91/名無しさん[1-30].jpg2018/05/03(木) 20:44:33.18ID:DratZGvm0
現状、どれくらいの人数が、どのくらいのレベルで作ってんだ?
まだ妖怪レベルから、そっくりさん、流出物レベルまで様々だと思うんだが。

ひろせ○ずでやってるが、遠い親戚にしかならん。

92/名無しさん[1-30].jpg2018/05/03(木) 20:45:54.08ID:57+CWNSD0
>>91
画像でいいからどんな感じかみせて

93912018/05/03(木) 22:45:34.40ID:DratZGvm0
>>92
似てないの貼っても、つまらんだろ。。。
おまえらは、どんな状況なん?

94/名無しさん[1-30].jpg2018/05/03(木) 22:54:26.90ID:57+CWNSD0
>>93
フェラに挑戦したらやっぱこんな風になったわw

95/名無しさん[1-30].jpg2018/05/03(木) 22:54:43.04ID:57+CWNSD0

96/名無しさん[1-30].jpg2018/05/03(木) 23:44:28.07ID:lAiWRitv0
ワープしとるw

97/名無しさん[1-30].jpg2018/05/04(金) 00:30:15.48ID:brnVnStr0
>>95
パスなんですか?

98loli62018/05/04(金) 00:36:26.52ID:G8J4vO580

99/名無しさん[1-30].jpg2018/05/04(金) 01:42:19.81ID:B+PZiDoz0
>>95
60回以上ダウンロードされててわろた
意外に人いるんだなw

100/名無しさん[1-30].jpg2018/05/04(金) 04:16:31.48ID:kaoYhtiW0
>>82
IU Deepfake Blowjob とか

101/名無しさん[1-30].jpg2018/05/04(金) 07:24:52.05ID:mm4NLIW00
AB共に眉毛見えてるモデル使ってるからつながるトラブルは無いのだけど、眉が4つある問題が出てきたw
AB共にloss値0.015以下なんだけどね
Bは変えてないけどmodel使いまわしたのが原因だろうか・・・
一回新規にtrainやり直してみるかなあ

102/名無しさん[1-30].jpg2018/05/04(金) 08:04:20.79ID:4QLNtqKY0
OpenFaceSwapならErode設定すればある程度なんとかなるぞ

103/名無しさん[1-30].jpg2018/05/04(金) 09:41:17.32ID:B+PZiDoz0
>>100
なるほど すげーなこれ

104/名無しさん[1-30].jpg2018/05/04(金) 11:09:17.84ID:B+PZiDoz0
ハシカンの良い素材動画どっかにないですか

105/名無しさん[1-30].jpg2018/05/04(金) 11:18:53.59ID:1c6j3bfI0
素材を集めて提供するやつと、
気に入った素材を使って実装するやつに分かれたら
効率的じゃね?

106/名無しさん[1-30].jpg2018/05/04(金) 11:35:32.98ID:B+PZiDoz0
とりあえず前スレにあった↓が良かった。
これぐらいのレベルのが他にも欲しいわ



107/名無しさん[1-30].jpg2018/05/04(金) 14:43:25.32ID:mm4NLIW00
>>102
良ければ目安になる数値教えてもらえますか?
BlurとErodeはチェックのオン・オフでなく数値のようなので、どれぐらいの数値でわかるようになるかとか
大小でどう変わるのかなどざっくり教えていただけたら助かります

108/名無しさん[1-30].jpg2018/05/04(金) 16:34:42.37ID:4QLNtqKY0
>>107
動画中の顔の大きさによって変わるからなんとも
とりあえずBlurErodeを同じ値にして5・10・15・・・と5きざみぐらいで出力色々してみるのがいいんじゃないか

109/名無しさん[1-30].jpg2018/05/04(金) 18:48:01.05ID:NjXAQ86Zp
ひろせすずのいい素材ないかな?
上向いてるのが見つからん。

110/名無しさん[1-30].jpg2018/05/04(金) 20:43:21.15ID:Es1RnEsI0
>>107
なぜ自分で試さん??

111/名無しさん[1-30].jpg2018/05/04(金) 21:31:46.34ID:brnVnStr0
>>109
ラインライブの動画とかはどうですか?

112/名無しさん[1-30].jpg2018/05/05(土) 02:00:34.83ID:1Ae0AyWW0
>>111
正面ばっかりで上むいたりが見つからん・・・何話もあって探しきれん。

113/名無しさん[1-30].jpg2018/05/05(土) 02:11:54.14ID:vF4732Qr0
>>108
試したんですが、悪化してるように見えます
Aの眉が残り、その下からBの眉以下の顔が移植されて、数字を大きくするとBの表示サイズが小さくなっていくように感じ、
試しにErodeを大きく取ったらとぎれとぎれに鼻だけ移植されていくのが画像で見えました
マイナス値を受けないようでエラーになるのですが、Bの位置を変えるもしくはすこしだけ大きくすることはできないんですかね?
train値は通常でなら十分低くなってるはずなんですが

114/名無しさん[1-30].jpg2018/05/05(土) 03:15:21.61ID:B9a7Va750
>>113
Bの眉まで削ればいいんじゃないの?

115/名無しさん[1-30].jpg2018/05/05(土) 06:47:51.53ID:sTqfE+ve00505
>>114
眉削ると別人になってしまうんだよなぁ〜。

116/名無しさん[1-30].jpg2018/05/05(土) 06:55:14.23ID:sTqfE+ve00505
>>113
deepfakes_faceswapを使っているが、
Erodeはマイナスにすると範囲が広がるが、四角く広がるので、眉が二重にならなくなると、今度は頬や顎の部分がよけいに変換されてしまう。
結局、Aの眉がつり上がってたりしてBと違いすぎるのは素材として良くないという結論。

117/名無しさん[1-30].jpg2018/05/05(土) 07:58:27.23ID:vF4732Qr00505
>>116
なるほど
一度こうなってしまうと設定で微調整するのは難しそうですね
今諦めてイチからtrainを試してるところですが、
以前のmodelがAを複数の別人に試したモノだったのが原因かも?と思っています
特に、上から見下ろすフェラ動画を試したので、その分顔の認識がズレた可能性があります
というのも、今回の二重眉になったAと同じ人、別の動画ではそれなりにうまいこといってたので、この考察が生まれた次第です
ずっとBは同じ人物なので、どうなるかまた後ほど報告したいと思います

118/名無しさん[1-30].jpg2018/05/05(土) 10:42:33.29ID:pU4y0t/r00505
顔アップで作るとピンボケするけどこれって学習でLOSS値下げたら改善するもんなんかな?

119/名無しさん[1-30].jpg2018/05/05(土) 10:44:55.74ID:i1ZgxEdWd0505
>>118
改善しない

120/名無しさん[1-30].jpg2018/05/05(土) 11:16:18.64ID:pU4y0t/r00505
まじかー
最終的にフォトショかなんかで修正するしかないか 

121/名無しさん[1-30].jpg2018/05/05(土) 11:33:09.47ID:i1ZgxEdWd0505
>>120
一応、deepfakes_faceswapには、画像をシャープにするオプションあるか…。

122/名無しさん[1-30].jpg2018/05/05(土) 11:37:44.70ID:i1ZgxEdWd0505
>>121
「あるか…。」じゃなくて「あるが…。」だ。
学習する顔画像が256*256なので、アップの顔はどうしてもピンボケする。
変換した後画像を縮小してごまかすしかない。

123/名無しさん[1-30].jpg2018/05/05(土) 12:32:16.54ID:UJMe1lbB00505
>>112
なかなかあごからのアングルって見つからないよね。逆にAVはあごからのアングルが多い

124/名無しさん[1-30].jpg2018/05/05(土) 16:49:51.24ID:vF4732Qr00505
>>117です
新規にtrainさせてみたのですが、どうもこの動画限定で相性が悪いのか似たような結果となりました
同じ人で別動画だとOKなので「そういうこともあるのか」ぐらいで自分で納得するしかないようですね

BlurとErodeについてですが、マイナス値を受けないのはBlurのみで、ErodeはマイナスOKでした
全く使い方がわからなかったのですが、Erodeは数字を小さく、マイナスにすることでBの顔を大きくし、
数字を大きくすることでBの表示範囲を小さくする機能ということなんですね
眉毛が二重に出るのは、Blur5 Erode-5にすることで「まあAの眉が見えなくはなった」という感じです
なぜかその分色合わせ機能がイマイチになってしまいましたが
Blurの意味、実際の使い方は未だによくわかってません
以上報告でした

よく理解されてる方には無駄情報かもですが、誰かの参考になれば幸いです

125/名無しさん[1-30].jpg2018/05/05(土) 17:03:08.53ID:i1ZgxEdWd0505
>>124
blurは境界のボカシの範囲のことじゃない?

126/名無しさん[1-30].jpg2018/05/05(土) 17:08:02.84ID:FL6tybIi00505
>> 124
Blurはぼかしですね。AとBの顔の境界がはっきりしてしまう場合に、ぼかしを入れることで境界が多少自然になります。
Erodeほどわかりやすくはないですが、Blur=30くらいから目に見えて効果が出ます。

エロには興味ないので、単純に技術情報の交換ができるような場所があるといいんですが、ないんですよねぇ。

127/名無しさん[1-30].jpg2018/05/05(土) 17:24:35.80ID:i1ZgxEdWd0505
>>126
技術の情報、ここでやってもいいんじゃない?

128/名無しさん[1-30].jpg2018/05/06(日) 01:53:40.92ID:MPAYmnsk0
>>127
ここは作例欲しくてもエロ目的と断定されちゃって締め出される
CG板あたりにエロ禁止前提であればいいのか?

129/名無しさん[1-30].jpg2018/05/06(日) 02:30:32.61ID:7lTuf9vZa
ナニを握りしめて来たワイはそっとナニを閉まった

130/名無しさん[1-30].jpg2018/05/06(日) 08:02:22.35ID:vtCpQ+M00
>>125-126
なるほど
その場合の自動色合わせはどうなりますか?
色々試すと、元のA動画によって色合わせがうまく機能する場合とそうでない場合があるようですね

あと、Bが丸顔気味の場合、スリム系のAに合わせると四角がはみ出てAの顔の横にある髪が「ぐちゃっ」とした感じになりますね
主観で似てるかより、眉毛、目鼻口の位置関係、顔に占めるパーツの全体の広さが大事みたいです
なのでそれがOKならタレ目とか団子っ鼻とか気にしないで大丈夫な印象

131/名無しさん[1-30].jpg2018/05/06(日) 09:02:56.10ID:jAKIviwOd
>>130
色については苦労した印象はないなぁ。
smooth maskとかavg color adjustのオプションチェック入れているよ。

輪郭が似ているのが大事だけど、元の顔が、あんまり鼻でかいとか、目が離れているとかだと、変換後の顔もそれに引っ張っられる気がする。身体は綺麗だけと、すげー歯並び悪い顔で変換したら、見られるもんじゃないものになったことあり。

132/名無しさん[1-30].jpg2018/05/06(日) 15:00:39.53ID:vtCpQ+M00
なるほどね
歯並び悪くて口閉じても顔のカタチに影響出るレベルだったり、鼻など横顔のラインが違いすぎると別人になっちゃうか

今のところ、正面しか向かず且つ10秒20秒程度だから違和感出てないのかも

なんか非エロ含むどんな動画見ても「このショットなら移植できるかな?」とか考えるようになってしまったのでしばらく頭冷やしたいと思います......

133/名無しさん[1-30].jpg2018/05/07(月) 00:13:30.41ID:V/lMUEFn0

134/名無しさん[1-30].jpg2018/05/07(月) 08:35:06.81ID:R5Z2BLzv0
実際作ってる人って何人ぐらいいるんかね?

135/名無しさん[1-30].jpg2018/05/07(月) 09:40:59.70ID:JofOeEDs0
機材揃ってれば誰でもすぐ始められるけど、昨今のPC離れを信じるならばそう多くは無いんだろうね
と、知人題材にしてるから見せられないけどここに一人おります
もっと盛り上がってほしいけどそれなりのPC手に入れようとしたら10万超える出費だろうしねえ

136/名無しさん[1-30].jpg2018/05/07(月) 10:11:45.78ID:JKEWa3ww0
デスクトップ持ってるやつはそう多くないと思う

137/名無しさん[1-30].jpg2018/05/07(月) 15:15:26.20ID:GHPifRgyM
まじか
コレの為に1070買って色々遊んでるよう。

とGoogle colabで今環境構築してるよー。
colabの方出来たら試してみたい人とか居ますかね??

138/名無しさん[1-30].jpg2018/05/07(月) 15:55:34.98ID:JofOeEDs0
そこまでやってる人いるのかw
googleは児ポに超敏感で、有名だけどスマホからPCにデータ移そうとしてgmail経由でファイル送った人がアメリカの刑務所(プリズン「監獄・ジェイル」ではない)ぶち込まれた日本人いるから扱うファイルによってはご注意を

とりあえずこちらはaviutl入れてみたらwindowsムービーメーカーより快適でA候補の動画切り取りしまくって遊んでます
有料だったけど7から10にしてとりあえず良かった
金がかかる遊びだこと・・

139/名無しさん[1-30].jpg2018/05/07(月) 17:10:46.87ID:51Ix+j6Zp
金と時間、PC知識、エロへの情熱。全部揃って無いと、まだまだ楽しめない遊びだな。
今んとこ、日本語情報少ないから、英語力もちょっとだけ必要だし、ハードル高い。

140/名無しさん[1-30].jpg2018/05/08(火) 01:54:21.42ID:PDGMCZzy0
>>137
colab使ったけどいまいちでしたよ。
GPUはK80だけど、どうもメモリが共有されてるのか500MB程度しか使えないっぽいんですよね。
フルに使う方法はあるのかなー。

141/名無しさん[1-30].jpg2018/05/08(火) 02:55:31.83ID:hS4SRMdJ0
colabで環境作ろうとしたけどプログラミング弱者すぎて無理だった

142/名無しさん[1-30].jpg2018/05/08(火) 04:27:43.27ID:IYnonsgI0
参考になるかわからないけど、
マザボasusのP8Z77-V LKにCorei7-3770 3.4GHzにメモリ16GB
Windows10 Pro
グラボはEVGA GeForce GTX 1060 6GB SSC
13年に、知人にモニタ別で$1000で釣りが来る範囲で組んでもらい、グラボとOSだけ最近更新
「最低5年以上、うまくやれば10年」ぐらいの感覚で相談しての構成
今なら同じ構成ですんごく安くあがるんじゃないかなw 調べるのも怖いw

ほとんどゲームやらんのに何やってんだ俺…とか考えたら負け
せっかくだから何かゲームやってみようか考えてはいるところ
Totally Accurate Battle Simulatorが楽しそうw

143/名無しさん[1-30].jpg2018/05/08(火) 05:16:00.30ID:CoykjQzga
ここはお前の日記帳だ

144/名無しさん[1-30].jpg2018/05/08(火) 22:33:18.22ID:sWQRDJu0M


145/名無しさん[1-30].jpg2018/05/09(水) 01:36:36.71ID:xOr9wttx0
google colab試してみたらcannot connect to X serverってエラーが出てtrainまでいけなかった
権限設定とかそんなのかな?

146/名無しさん[1-30].jpg2018/05/09(水) 09:26:12.67ID:J4FYsPOO0
>145
Xは使えないんでしょうね。deepfakes/faceswapは使えたので、git cloneするといいかもですね。
OpenFaceSwapもFakeAppも中身はほとんどfaceswapなので。

147/名無しさん[1-30].jpg2018/05/09(水) 11:35:33.47ID:DiEdqIG9M
>>140
そ、そうなのー??
家のpcとcolab使って捗るわーとか使用と思っていたのに…

148/名無しさん[1-30].jpg2018/05/09(水) 12:45:50.67ID:ValCSeJL0
これから作っていこうと思っているんですが
皆さんはだれを題材にして作成しています?
自分は女子アナ好きなので
宮司、椿原、古谷、上村、宇賀、久慈あたりで始めてみようかなと
考えているのですが

149/名無しさん[1-30].jpg2018/05/09(水) 12:52:38.74ID:J4FYsPOO0
>>147
自分のcolab環境だとVRAM12GBくらいあるんですが、500MB程度しか使えてないようなんですよねー。
環境によるのかなー。フルに使えてます?

150/名無しさん[1-30].jpg2018/05/09(水) 23:42:46.72ID:bsoPmiKq0
>>145
trainに-pのオプションつけてない??
つけてるとそのエラーでるよ。

使ってる感じ、PCのCPUでtrainしてるのと大差無い感じがする。

151/名無しさん[1-30].jpg2018/05/10(木) 03:33:35.85ID:O9W11JAe0
TrainerをOriginalやGANじゃなく、LowMemにすれば多少マシにはなりそうですけどねー。

152/名無しさん[1-30].jpg2018/05/10(木) 06:20:46.91ID:1wsumiRK0
>>150
まさにそれだった、ありがとう

で、動かしてみたけど想像以上に遅かった
無料だしこんなもんなのかな

153/名無しさん[1-30].jpg2018/05/10(木) 18:32:47.69ID:ZmfGb7VO0
この板ってどんぐらい放置されたら落ちるんだっけ?
一応一通り動かせるようになったけど、引き続き情報収集や質問もあるかと思うので念のため保守

154/名無しさん[1-30].jpg2018/05/10(木) 19:11:58.77ID:Wl3ePGUu0
愚息をそっと仕舞ったマンだけど期待してるから保守

155/名無しさん[1-30].jpg2018/05/10(木) 20:00:10.62ID:F++nmH2ea
始めたいけどグラボを買うところからで、なかなか重い腰が上がらない

156/名無しさん[1-30].jpg2018/05/10(木) 22:06:51.25ID:JZvsJIbea
discodeの募集ってもう無いのか?
毎回タイミング逃して悲しい

157/名無しさん[1-30].jpg2018/05/11(金) 00:18:35.76ID:7FpZVHo90
FAKEY見たけど、誰かわからんものも多いな。

158/名無しさん[1-30].jpg2018/05/11(金) 00:27:55.62ID:RK5zcvxU0
初めて作ってみたけどこれすげーな
ただ素材選び適当すぎてお面になっちゃった

159/名無しさん[1-30].jpg2018/05/11(金) 01:28:01.38ID:K0QfGHpr0
ディスコで作ってる人どれぐらいいるん?

160/名無しさん[1-30].jpg2018/05/11(金) 08:42:21.79ID:SWLH7kiYp
中のことは答えられない

161/名無しさん[1-30].jpg2018/05/11(金) 10:38:04.45ID:s7U2wCQz0
>>159
故人を映画等に復活利用できる等可能性の模索
専門的な話を主体にプログラミングAI技術の共有のみで
君の希望のものは一切ないから安心しな。

162/名無しさん[1-30].jpg2018/05/12(土) 00:38:28.15ID:Hp8/TwYH0
fakey.ltd って、転載?
それとも作者が自分であげてるん?

163/名無しさん[1-30].jpg2018/05/12(土) 01:24:08.65ID:Gf0RGol80
見るからにガッキーの人の日本語じゃないよな
転載理由でやめるとも呟いてる

164/名無しさん[1-30].jpg2018/05/12(土) 06:04:55.77ID:WXZxJ4Er0
転載ウザいとも確かに言ってたが、1週間くらい前に
同じようなもんばっかりになって飽きられたから辞めるって言って辞めたぞ。

165/名無しさん[1-30].jpg2018/05/12(土) 14:24:05.60ID:Wlq/XL3D0
文法に間違いがなくどう見ても中国人を装った日本人

166/名無しさん[1-30].jpg2018/05/12(土) 19:55:02.82ID:2KtMGG1j0
geforce gtx1050 tiってcudaインストールできないんですか?
グラボ変えたのにインストールできなくなって詰んでます…

167/名無しさん[1-30].jpg2018/05/12(土) 20:13:47.44ID:Hp8/TwYH0
1050tiで出来てるよ。

168/名無しさん[1-30].jpg2018/05/12(土) 20:24:35.18ID:PyONJCLda
グーグルで検索すら出来ないパソコンなら捨てたほうがいいよ

169/名無しさん[1-30].jpg2018/05/12(土) 20:35:12.89ID:1ZNC3+Fm0
>>166
とりあえずグラボのドライバから入れ直してみればいいんじゃないか

170/名無しさん[1-30].jpg2018/05/12(土) 20:57:35.60ID:iSGIf+mg0
>>166
カスタムインストールでvisual studio integrationのとこのチェックを外してインストールしてみ

171/名無しさん[1-30].jpg2018/05/12(土) 22:28:53.23ID:nLylkNIAd
>>162
このパクりサイト、公開されてるのは、ガッキーの人意外のはみんな駄目駄目だな。
もう少しちゃんと作ればいいのに…。

172/名無しさん[1-30].jpg2018/05/12(土) 22:32:14.36ID:uWOefJWn0
とりあえず例のサイトに作品2つアップしてみた。評価よろしく

パスはmGpgRORz3

173/名無しさん[1-30].jpg2018/05/13(日) 00:08:30.85ID:4SxjVjjE0
>>170
出来ました!ありがとうございます!!

174/名無しさん[1-30].jpg2018/05/13(日) 00:08:56.99ID:4SxjVjjE0
アップしたサイトどこ?

175/名無しさん[1-30].jpg2018/05/13(日) 01:12:39.20ID:zTjdxSaC0
KPOPは異常に多くて専用のサイトも立ってるけど、ようやく日本にもこの手のサイトできたか
KPOPはあれ韓国人が頑張ってるの?それとも、4chanでも画像スレがトップ画面に来てたりするし、本当に世界的に人気なの?

176/名無しさん[1-30].jpg2018/05/13(日) 01:18:09.04ID:HA4yz22n0
>>171
その人のが上手く作れすぎてるだけなんじゃないかと思ってしまうけどどうなんだろう

177/名無しさん[1-30].jpg2018/05/13(日) 01:42:56.40ID:X3mDHIZTd
>>176
いや、他のは駄目すぎ。鍵掛かってるのは見れないからわからんが。

178/名無しさん[1-30].jpg2018/05/13(日) 02:57:01.59ID:KbdDRfl90
ところどころもとの顔がでてくるのはなぜなんだろうか

179/名無しさん[1-30].jpg2018/05/13(日) 03:29:25.10ID:AJifwDLD0
>>178
extractで元画像の顔が切り出せないと顔の位置情報がわからないので変換されずに元の顔が残ってしまうのです

180/名無しさん[1-30].jpg2018/05/13(日) 03:30:29.21ID:hdQ2C/760
>>178
顔検知できてない。顔の前に障害物があったり、顔が水平気味だと検知外れる。後者は画像ごと回転させるのがいいかも。

181/名無しさん[1-30].jpg2018/05/13(日) 09:19:59.26ID:KbdDRfl90
ありがとう

182/名無しさん[1-30].jpg2018/05/13(日) 11:04:14.18ID:YguY9p/dp
回転させれば認識出来るって時は、-r オプションおすすめ。

183/名無しさん[1-30].jpg2018/05/13(日) 11:55:36.93ID:vFA0a/Ynd
ガッキーの人、fakeapp1.1と2.2使ってたとは知らなかった

184/名無しさん[1-30].jpg2018/05/13(日) 12:44:43.04ID:7Vx/95r0r
>>174
嘘だよw

185/名無しさん[1-30].jpg2018/05/13(日) 13:28:16.14ID:KbdDRfl90
>>182
ありがとう

いまハシカン作ってるんだけどお勧めのAV女優いませんか

186/名無しさん[1-30].jpg2018/05/13(日) 17:32:11.77ID:SSv+Nx1W0
やっぱBは動画使ったほうがいいのかな?
用意できる枚数多いし、顔の角度の補完が用意な気がする

187/名無しさん[1-30].jpg2018/05/13(日) 17:58:05.81ID:AJifwDLD0
>>186
動画使ってないって、静止画を1500枚とか集めてたのか?

188/名無しさん[1-30].jpg2018/05/13(日) 19:59:48.52ID:QeNUtvts0
ない角度があれば動画だろうが静止画だろうがぶっこんでいけばいいんだよ

189/名無しさん[1-30].jpg2018/05/14(月) 04:05:26.02ID:xSErqbKI0
>>187
100カットぐらいかな?
それでもソレっぽくはなる
知人だとおっぱい丸だしで動いてる20秒動画てだけで満足

ただ、やっぱ年齢の幅広いとダメだとわかった
試しに優香のグラビアから200枚ぐらいでやってみたけど、デビュー時志村と絡んでた頃の混ぜたら「なんとなく似てる別人」になってしもうた
一番良かった頃の高画質動画なんてすぐ見つからんしなあ

当時のイエローキャブをBにするのは楽しそうではあるんだが・・

190/名無しさん[1-30].jpg2018/05/14(月) 10:19:17.19ID:VJe6T51c0
グラビアアイドルならイメージビデオから抽出すればいいだけでしょ

191ねる神w2018/05/14(月) 13:18:36.15ID:CoTzpmSvd
>>190
アナログ時代のは画質がな

192/名無しさん[1-30].jpg2018/05/14(月) 15:37:09.42ID:xSErqbKI0
そうなんよね
サトエリとか小池栄子とかあの時代のは良い動画探すだけで大変
つか優香調べてたらイエローキャブじゃなかったの今知ったw
ホリプロだったのね
ずっと勘違いしてたわ

193/名無しさん[1-30].jpg2018/05/14(月) 19:35:21.24ID:BS9tdB67d
>>192
抽出する顔画像は256×256なので、顔アップのシーンがある動画なら、少しくらい荒い動画でもなんとかなりそうだぞ。

194/名無しさん[1-30].jpg2018/05/14(月) 20:31:15.53ID:VJe6T51c0
ない角度があるよりは低画質でも入ってるほうがましだと思う

195/名無しさん[1-30].jpg2018/05/14(月) 21:19:32.16ID:mTDxTnPw0
open face swapで1回動画作れたんですが
2回目以降動画のファイルが0キロバイトになって再生できないんですけど同じような方います?

196/名無しさん[1-30].jpg2018/05/14(月) 21:53:36.57ID:cJmrdq1B0
fakeapp2.2で顔抽出すらできなかった
PC知識まったくないから諦めた
誰にでもできるような手順が公開されるまでロムるわ

197/名無しさん[1-30].jpg2018/05/14(月) 22:24:37.81ID:6XL+uPPK0
>>195
どんな理由でなったか忘れたけど前にあったな
その時はffmpegのコマンドのところチェックしてカスタムにして手動で修正した気がする
あとは連番になってるかとか

198/名無しさん[1-30].jpg2018/05/14(月) 23:18:07.29ID:53hsa4nL0
アイドルより女友達でやった方が興奮しそうだな
素材がないけど

199/名無しさん[1-30].jpg2018/05/14(月) 23:26:29.05ID:9c15YxOY0
すいません

顔が黒ずんだりちかちかするのはトレーニング不足でしょうか

200/名無しさん[1-30].jpg2018/05/14(月) 23:33:25.98ID:gsGDR0GY0
>>199
seamless ONになってんじゃないの?

201/名無しさん[1-30].jpg2018/05/15(火) 02:35:55.24ID:NrW4Fczb0
>>197
連番になってないとダメなんですか
間に違う人の顔とかが入った場合は消してるんだけどその後連番に書き換えないいけないってことですか?

202/名無しさん[1-30].jpg2018/05/15(火) 03:01:46.08ID:fF6jvpcx0
Bを同じデータで違う動画つくろうとしてエラーでたことはあったかもしれん
Bの全体画像(グラビア写真でも動画からのフレーム切り取りでも同じ)から顔の切り出しをやり直しだけやったらうまくいった
もしAその他に原因があったらすまんけどわからん
それぞれのデータを入れるフォルダがちゃんと正しいか確認してみては?

203/名無しさん[1-30].jpg2018/05/15(火) 03:18:26.67ID:NrW4Fczb0
>>202
毎回顔摘出しないといけないってことですよね、そのうち使い回しできるようになって欲しい。

open face swapだと自動でフォルダ作られるから下手に移動させてなければ問題ないと思ってました

204/名無しさん[1-30].jpg2018/05/15(火) 03:21:33.09ID:NrW4Fczb0
1日かけてトレーニングしてロス値いい感じになったのに動画作る段階でエラー起きてパァになったから辛い…

205/名無しさん[1-30].jpg2018/05/15(火) 03:32:08.16ID:duJMUrzs0
>>203
なんか流れ見てて思ったけど、Aのimgフォルダに以前の動画から抽出した画像入れっぱなしじゃない?

206/名無しさん[1-30].jpg2018/05/15(火) 03:42:22.37ID:NrW4Fczb0
>>205
一応AもBも削除して試してみましたがダメでしたorz

207/名無しさん[1-30].jpg2018/05/15(火) 04:23:02.37ID:fF6jvpcx0
>>203
いや一回やり直したらBは画像入れ替えしてないからその後使いまわししてるよ
でも、別動画やりたいなら新規のA、model、swapフォルダ別につくって作業しなきゃダメじゃないかな?
俺はそうしてて問題なく動いてる

208/名無しさん[1-30].jpg2018/05/15(火) 04:29:08.53ID:fF6jvpcx0
>>198
一応70枚ぐらいでもカタチにはなるよ
こっち見つめつつテコキとか、こっち見ながらおっぱい持ち上げて揺らしてるのとか、10秒ー20秒ぐらいのやつ
多分その程度ならもっと少なくてもいけるかもしれん
自撮りやポートレート、記念写真好きな子ならすぐ集まる
その友達が撮影したのとかもすごく使える
自分で撮らない瞬間とか角度あるから

209/名無しさん[1-30].jpg2018/05/15(火) 06:54:53.13ID:o1Bac09x0
>>201
1からはじまる連番じゃないと動画にならない
最初に使わないシーンは動画編集ソフトでカットした方がいいよ。
基本はalignAを消して、-aオプションでスキップする。
一応、Movie のところのコマンドで-start_number 101 みたいに追加で書くと101から次の連番が終わるところまでの動画にすることできる。

210/名無しさん[1-30].jpg2018/05/15(火) 08:21:04.97ID:4BQyzDJtp
そもそもSWAPまではちゃんと出来て、連番画像までは出来てるんか?

211/名無しさん[1-30].jpg2018/05/15(火) 14:31:05.22ID:NrW4Fczb0
やっぱダメです
連番になっててもトレーニング途中でエラーが起きる…

212/名無しさん[1-30].jpg2018/05/15(火) 14:58:16.58ID:duJMUrzs0
待て待て待て待て
>>211>>195だよな?
動画にできないって話でみんなそれに対する返信してくれてたんじゃないのか?
トレーニング中のエラーだったら全く別の話だぞ

213/名無しさん[1-30].jpg2018/05/15(火) 15:05:30.97ID:q//C3a54a
症状後だし野郎に構うと時間の無駄

214/名無しさん[1-30].jpg2018/05/15(火) 15:08:50.74ID:o1Bac09x0
>>211
どこで失敗してるかはっきりしてくれ。トレーニングは学習のことだよ。
ちなみに名前を一括renameして()つきの連番じゃ意味ないからな。やりそうだから違うやり方を説明したわけで。

215/名無しさん[1-30].jpg2018/05/15(火) 16:51:58.65ID:fF6jvpcx0
trainが「途中で」止まるのか、そもそも始まらない状態なのかでも違うよね
trainが始まる=黒い小窓が開きに色々ザーっと文字が出て、更にもう一つAB双方の顔が並ぶ小窓が出る
この2つが出てこなかったらそもそもtrainが始まってない
エラーで2つ目が出ない場合は一つ目の黒い小窓にエラー内容が出てるはず
エラーの意味がわからなければその内容をここに書けばいい

216/名無しさん[1-30].jpg2018/05/15(火) 17:11:22.77ID:NrW4Fczb0
遅くなりました。
すいません、Movie以前の問題だったようでおそらくトレーニング中のエラーです。
顔摘出した画像の連番になっていない画像を消して連番になっている画像だけを残してトレーニングしたのですがそれでも
トレーニング中に小窓が開き顔も出てくるのですが
ロス値が2行目に行ったところで止まりエラー表示されます。

217/名無しさん[1-30].jpg2018/05/15(火) 17:34:30.45ID:zQ5PgO9Ka
なおエラーの内容は書かない模様

218/名無しさん[1-30].jpg2018/05/15(火) 18:02:02.42ID:fF6jvpcx0
自分はロス値が2行目で(内容不明の)エラーで止まるって経験無いなあ
基本Aは厳選して余計な顔入らないように編集してから持ってくるんで、Aはそのまま、facesで顔以外の認識してるやつ消すぐらい
batch sizeとsave periodの設定はちゃんと合ってる?
batch sizeはBを動画から用意するなら問題無いと思うけど、もし100枚とかしか無いなら64以下にしないとダメ
save periodはうちの環境だと100で問題無く動くのでいつもそうしてる
とりあえず自分はギブアップ スマン

219/名無しさん[1-30].jpg2018/05/15(火) 18:35:46.30ID:jsWCVfCMp
ひとまず、batch size 下げてみよか。そもそもいくつで設定したんだ?グラボなんだ? 設定とか環境も書こうな。

ここは親切なオッさんが多いみたいだけど、質問するならするで、必要な情報くらい最初から書けや。

220/名無しさん[1-30].jpg2018/05/15(火) 18:51:34.35ID:EfCrudKCd
GTX1050ti 4gb
PCメモリ8GB
batch sizeは1です

221/名無しさん[1-30].jpg2018/05/15(火) 18:52:35.00ID:EfCrudKCd
>>218
いえ考えてもらえただけで助かります!

222/名無しさん[1-30].jpg2018/05/15(火) 19:11:54.92ID:o1Bac09x0
>>220
1枚ずつ学習してどうする
1050tiだったら、lowmemのバッチ64くらいでいいんじゃない?(modelの設定のtrainerの話)
original使ってたら学習は最初からやることになるけど、そもそもちゃんと学習できてないと思う

223/名無しさん[1-30].jpg2018/05/15(火) 19:44:23.25ID:EfCrudKCd
>>222
なるほど!やってみます!

224/名無しさん[1-30].jpg2018/05/15(火) 19:44:26.44ID:jsWCVfCMp
1050ti使ってるけど、original だとメモリ不足で安定しない。最初から動かんことがほとんど。
LowMem 使え。Batchも64くらいで辛くなってくる。32以下推奨。
作品はだいたい満足出来るレベルで作れてるので頑張れ。

225/名無しさん[1-30].jpg2018/05/15(火) 23:20:34.29ID:JOj0071a0
情熱欠如で5年以前にIT業界から逃げた俺
amazon ec2 の cuda インスタンスで出来ますか?
ってういか一通りセッティングしたインスタンスって公開されてますか?

226/名無しさん[1-30].jpg2018/05/15(火) 23:22:27.55ID:JOj0071a0
あと、個人的にはVRが好きなんですが、VR対応状況はどうえすか?

227/名無しさん[1-30].jpg2018/05/16(水) 09:26:39.27ID:H31BHuTT0
>>225
Dockerイメージが公開されてるんで、faceswapならセットアップは簡単ですよ。
FakeAppなどもGoogle Cloud Platformで公開する方法がDEEPFAKES.CLUBで詳しく解説されています。
https://www.deepfakes.club/google-cloud-fakeapp-tutorial/

228/名無しさん[1-30].jpg2018/05/16(水) 12:41:44.72ID:0qupE7at0
>>224
lowmemにしてからうまくいくようになりました!
ありがとうございます!

229/名無しさん[1-30].jpg2018/05/16(水) 15:58:04.71ID:KoUU7Hcoa
暑くなってきたからもうやれそうにない
冬までにもっと処理が改善されてますように

230/名無しさん[1-30].jpg2018/05/16(水) 20:56:21.94ID:jN2C93Up0
今日急に起動出来なくなって入れなおしてたらvisualC++2015がインスコ出来なくなった
2017があるせいかと思ったら2017がどう足掻いてもアンインスコできないし(セーフモードでもfixit使っても駄目だった)
どういうことだろうこれ

231/名無しさん[1-30].jpg2018/05/16(水) 21:48:25.05ID:EhaCFRIB0
昔は美人だったんだろうけど今はきつそうな感じの知り合いの奥さんが
いるんだけど、数秒の動画撮れたから舞咲みくにのえろえろボディつけて
みようと思ってやってみた。....美少女になってて吹いたw

多分舞咲みくにのきっつい化粧が美肌効果生んだんだろうな。
もう、そういう目でしかあの奥さん見れんわw

232/名無しさん[1-30].jpg2018/05/17(木) 00:26:02.61ID:EEt8Ivf10
ロス値0.02とか納得いく所までみんなどれくらいトレーニングに時間かかってます?

233/名無しさん[1-30].jpg2018/05/17(木) 02:10:22.75ID:Y5bH6grm0
今やってるのは寝る前に動かして起きたらswapして確認、んで仕事行く前続きやって帰ってきたらBが大体0.014切るぐらい
Aは場合によっては0.01下回る
1060の6Gで30秒未満ね
でも出来はといえばB次第だから奥が深い

234/名無しさん[1-30].jpg2018/05/17(木) 10:59:19.57ID:Pztt2CKKM
>>232
0.018位迄に40000チョット位。14時間位かなあ?
1070使って

235/名無しさん[1-30].jpg2018/05/17(木) 11:02:29.02ID:UXGj3avfM


236/名無しさん[1-30].jpg2018/05/17(木) 13:06:10.77ID:HIqFFEiyd
Aの素材にもよるけど12〜24時間回して0.018
切るぐらいで一旦swapしてみていけそうか
判断。
行けそうだったら更に2〜3日回して0.009台
かそれ以下を目指す。
土日でswapの条件煮詰めたり破綻してるコマ
含むシーン削ったりでとりあえず出来上がって
次の素材を選ぶ。
って感じで1週間で2〜3分の動画作成がやっと。個人的な主観だけどFakey で公開されてるの
学習不足なのが多い気がする。

GTX1060使ってるけどもっといいGPU欲しい。

237/名無しさん[1-30].jpg2018/05/17(木) 14:39:23.93ID:hr6HIEGW0
実際このスレ見てて作ってるやつって何人いるんだろな
あんまいねーのかな

238/名無しさん[1-30].jpg2018/05/17(木) 15:21:22.40ID:JY6qBKhI0
Bの顔素材大量に用意して、Bとモデルデータは変えずにずっとトレーニングしてると、動画変えても数分で0.02切ってくるよ
プレビュー画面でいきなりいい感じの表示される
ただ正面とかじゃない限り0.01切るのは難しい

239/名無しさん[1-30].jpg2018/05/17(木) 15:29:07.74ID:3dFXx+bt0
>>237
Macしかもってないからやってみたいけどずっと傍観してる。

240/名無しさん[1-30].jpg2018/05/17(木) 15:54:41.16ID:HOSk1j9Er
苦労して作っても、自分の作品で抜くやつは少なそう。

241/名無しさん[1-30].jpg2018/05/17(木) 16:47:17.14ID:hr6HIEGW0
>>239
MacでもPython環境作ればできるんじゃなかったっけ
fakeappは使えないけど
詳しくなくてスマンね

242/名無しさん[1-30].jpg2018/05/17(木) 16:48:54.00ID:Y5bH6grm0
やっぱBはそれなりの画質で用意できないと雰囲気だけ似た誰かになっちゃうね・・
最近の「エロと無縁の芸能人」に興味無かったから素材探しに詰まってしまったわ
ガッキーぐらいは知ってるけど二番煎じじゃ面白くないし

あと、Bに眉毛ギリギリの画像や、ニット帽その他で「眉毛は見えてるけどその真上まで何かで隠れてる」画像があると、合成後に眉毛が二重(計4つ)になりやすいんじゃないかと感じた
それらを消してtrainやり直したらマシになったと報告

243/名無しさん[1-30].jpg2018/05/17(木) 16:52:48.17ID:EEt8Ivf10
やっぱり最短で丸一日はかかるんやね
B素材足してトレーニングでいい感じになるのはいいこと聞いた。
しかしやっぱり高画質のB素材揃えるのは難しいなぁ

244/名無しさん[1-30].jpg2018/05/17(木) 16:54:50.38ID:EEt8Ivf10
照明のせいで肌の色に違和感あるのが残念…

245/名無しさん[1-30].jpg2018/05/17(木) 17:07:12.35ID:EEt8Ivf10
よく見たら素材足すとか書いてなくて完全に読み違いしてます。

246/名無しさん[1-30].jpg2018/05/17(木) 21:26:18.28ID:hv6ljnbld
OpenDeepFaceSwapがBIG UPDATEしたと書いてあったので、入れてみたら、エラー吐きまくり。Modelデータもいちから作り直ししないといけないんだったわ…。

247/名無しさん[1-30].jpg2018/05/17(木) 23:05:23.14ID:ENlV2RAJ0
fakeapp動かなくなった CUDAもvisualもソフトも全部再インストールしてるしcoreフォルダも起きなおしたのでポップアップでちゃう

248/名無しさん[1-30].jpg2018/05/18(金) 02:51:24.80ID:czmHVcFr0
今ロス値0.014までいってうっきうきでswapしたらなんじゃこれってクオリティだった…
swapの設定とかに変えなくてもみんな満足クオリティでいけてます?

249/名無しさん[1-30].jpg2018/05/18(金) 07:15:46.16ID:iPlcYNby0
なんなんだろうね?
単純に数字だけ見ても良くなるってわけでも無いみたいで
「いい感じ」にできた人はAとBの組み合わせと設定詳しく(動画タイトルとシーン、フレームレートその他)教えてほしい
一回自分の手元で同じソース使ってできたら一歩先進めそうな気もする
30秒未満ので構わないので、参考にさせてください!

250/名無しさん[1-30].jpg2018/05/18(金) 07:33:32.04ID:mmQKdp5f0
>>248
0.02とかてきとうなところで1回swapして確認してる
元の顔と輪郭とかパーツ配置とかかけ離れてるとダメな場合多いと思う

251/名無しさん[1-30].jpg2018/05/18(金) 07:34:40.57ID:mmQKdp5f0
>>249
30秒どころか最初は5秒とか長くても10秒とかで試したほうがいいと思うよ

252/名無しさん[1-30].jpg2018/05/18(金) 09:00:15.30ID:mZcRVIMfp
映像のクオリティと、似てるかどうかは別だね。
似てるかどうかはABの相性次第。
クオリティは、B素材の質と量、学習時間で上がる。
2重眉対処はerode で。
色調補正は、最終的には元映像の色調補正に頼ることになるが、ある程度 blur 、seamless でごまかせる。
学習進んでもチラつくのはseamless のせい。
Loss は学習素材に対する値でしかないので、短い映像で、B素材足りなけりゃすぐ下がる。絶対値に意味はない。

253/名無しさん[1-30].jpg2018/05/18(金) 20:27:23.53ID:czmHVcFr0
なるほど!
seamlessにチェック入れたら少しクオリティ上がりました!
あとはやっぱりB素材の質ですかね笑

254/名無しさん[1-30].jpg2018/05/18(金) 20:29:31.03ID:czmHVcFr0
あと、トレーニングのallow growthはつけた方が仕上がり良くなります?

255/名無しさん[1-30].jpg2018/05/18(金) 21:36:13.68ID:qTle3XU/0
>>254

「良くなります?」じゃなくて自分で試して結果レポートしろよ。
教わってばかりじゃなくてさ。

256/名無しさん[1-30].jpg2018/05/18(金) 21:55:41.44ID:EosYLLyC0
>>254
おそらく仕上がりは同じだと思います。
allow_growthはTensorFlowの機能で、GPUのメモリを最初にすべて確保せずに、必要に応じて確保するようになります。(内部でDeep LerningフレームワークのTensorFlowを利用しています。)
なので=Aデフォルトのbワまでよいはずbナす。

>>255
技術交換スレですから、質問はしてもよいと思いますよ。

257/名無しさん[1-30].jpg2018/05/18(金) 22:16:26.60ID:nGV7q0Ul0
その1のスレの最初の頃から色々試行錯誤してとやってたものだけど、
今のところ、どれ作ってもそれなりのものができるようになったやり方

Aは、動画一本丸々から抽出した画像から
Bは、インタビュー、CM、ドラマ、写真集から集めた画像で
まずは、lossAのターゲット値は0.014以下になるまで学習。
次に、変換したいシーンだけからAを抽出して0.014以下でプレビューが満足できる画像になるまで学習して変換。
これで、自分では、まあ満足いく動画ができるようになった。
あとは、モデルデータは使いまわしでAだけ変えて、
最初から同じ学習方法で結構早く作成できる。

258/名無しさん[1-30].jpg2018/05/18(金) 22:17:09.54ID:nGV7q0Ul0
Bの画像は、1万枚以上使ってる
顔の選定のコツは、両目と両頬、おでこ、顎の4か所が少しでも見えているものだけを使用、
それ以外と、両眉隠れてるやつ、ボケてるやつは全部削除。
動画から画像取るときは1fpsか2fpsぐらい。
抽出した顔画像が暗い場合は、明るさを上げた画像に変換。
これで0.014以下まで学習してれば、
Aの画像の片眉隠れてたり、顔が全部見えてないやつもそれなりに変換できる
何か咥えてるのは、ものによっては見られないこともない
常にseamlessで使ってる

BのデータとAの動画選定が大事。

GPUは、750ti 2G -> GTX1080 8GBに変えた

259/名無しさん[1-30].jpg2018/05/18(金) 22:34:24.74ID:nGV7q0Ul0
髪の分け目とかで、違和感あったりするので、Aを左右反転したりもする
顔抽出は、顔が立て向きのほうが抽出率が高いので、
90度回転させてからとか180度回転させてから抽出するほうがいい

260/名無しさん[1-30].jpg2018/05/18(金) 22:36:42.62ID:czmHVcFr0
>>256
なるほど!そうだったんですね!
ありがとうございます!

261/名無しさん[1-30].jpg2018/05/18(金) 22:39:04.67ID:MdVr4+tud
>>258
同じような顔は削除するようにsortツールが添付されてたりするが、1万画像というのは、表情とか光の当たり方とか向きとか違う画像?
動画から抽出した同じような顔画像はいっぱいあっても無駄な気がするが…。

262/名無しさん[1-30].jpg2018/05/18(金) 22:43:54.45ID:MdVr4+tud
>>259
deepfakes/faceswapは、train時に勝手に左右反転してくれるが、あなたの使ってるのは、左右反転してくれない?

263/名無しさん[1-30].jpg2018/05/18(金) 23:05:12.83ID:MdVr4+tud
windowsで使える奴は、
fakeapp
deepfakes/faceswap
myfakeapp
openfaceswap
OpenDeepFaceSwap
までは把握しているが、
他にある?

264/名無しさん[1-30].jpg2018/05/18(金) 23:17:33.45ID:nGV7q0Ul0
>>261
同じような顔は削除するようにsortツールって知らなかったので使ってないです。
動画だと90個ぐらいからシーンごとに抽出してて1fpsとか2fpsなんで表情や角度は、似てるけど一応違うね
無駄かもしれないけど、どれがいいのってわからないから選定して集めて、追加学習していったら
1万枚超えたってとこです。
もっと少なくてもいいかもしれないけど、とりあえず自分はこれでうまくいってるって報告レベル

265/名無しさん[1-30].jpg2018/05/18(金) 23:19:44.80ID:nGV7q0Ul0
>>262
train時じゃなくて、変換する際のA側の動画です。
出来上がった時に右分け目の人が左分け目になったりして違和感があるから

266/名無しさん[1-30].jpg2018/05/18(金) 23:36:29.42ID:tG5VeGkH0
>>265
なる程!身体素材の動画を反転させて、分け目を合わせてるのか。そこまで考えていませんでした。
あと、顔画像1万はGTX1080だから成せる技かも?
OpenDeepFaceSwapでtrainしようとしたら、顔画像は1500以内におさめろと警告が出たので多けりゃいいというものでもないのかと思った次第。
ちなみにこちらはGTX1060で、顔画像は2000身体4000画像くらいです

267/名無しさん[1-30].jpg2018/05/18(金) 23:38:38.15ID:tG5VeGkH0
>>266
あらら、2000から4000の変換間違いでした。

268/名無しさん[1-30].jpg2018/05/19(土) 00:44:26.64ID:XN2ZQRvQ0
>>266
OpenDeepFaceSwapどんな感じ?
手動で検知ミス修正できるのは良さそう

269/名無しさん[1-30].jpg2018/05/19(土) 07:28:27.45ID:5QsECVBMd
>>268
OpenDeepFaceSwapは4日くらい前から試しています。
手動の検知は認識しない画像があると、選択画面が表示されて、四角をマウスで選択する。1回でてきたが、かなり斜めな向きの顔で結局認識しなかったようだ。
抽出した顔画像に位置情報を埋め込むのでalignmentsファイルがいらない。
かなり遅くなるがcpuのみの変換もできる。
モデルタイプの種類が多く、メモリ少なくても良いものから高画質にできるものまで、選択肢が広い。
H128で3回作ってみたが確かに綺麗な顔に変換された。ただ、滑らかに変換するために素材画像と混じり過ぎて似ている別人に変換された印象。
ちょっとしか使ってないがそんな感じ。

270/名無しさん[1-30].jpg2018/05/19(土) 07:39:35.22ID:5QsECVBMd
便利ツールで、
長い動画から部分抽出にはavidemuxを、動画から静止画を切り出しにはffmpegを、
回転や色変換など静止画の一括変換にはxnconvertを、拾ってきた動画に入ってるいらないロゴの一括ボカシやモザイク化にはモザイク即合成を使っているが、他にいいツールない?

271/名無しさん[1-30].jpg2018/05/19(土) 10:12:02.71ID:v3OE2s0z0
動画からのシーンごとの回転、反転しての静止画の切り出し、部分ぼかし、モザイク入れ、動画のエンコードはAviUtlで。
静止画の一括調整にはAviUtlとPhotoScapeXっていうの使ってます。

272/名無しさん[1-30].jpg2018/05/19(土) 16:26:38.64ID:VMKONMs7d
>>271
ありがとう。試してみたら、一つのツールでみんなできるのでとても便利!

273/名無しさん[1-30].jpg2018/05/20(日) 16:54:52.44ID:P/qCIXLf0
眉毛がつながる問題がどうしても解決できない

274/名無しさん[1-30].jpg2018/05/20(日) 19:29:37.24ID:Fi/HqfWE0
一番簡単なのはB側の素材で前髪が眉毛に被ってないやつを増やすこと
見つからなければA側の髪型をB側に合わせるでもいいかな

275/名無しさん[1-30].jpg2018/05/20(日) 20:05:38.36ID:11T+F8vFd
>>269
OpenDeepFaceSwapでの、顔の手動認識、使い方をちゃんとわかってなかっただけで、ちゃんとできたら素晴らしい。90度傾いた顔も手動でちゃんとできた!

276/名無しさん[1-30].jpg2018/05/20(日) 22:26:01.33ID:tPolx3UR0
>>275
手動認識使えるのか。試してみたいけど最初からやり直すのが面倒でなかなか一歩が踏み出せない…

277/名無しさん[1-30].jpg2018/05/20(日) 22:33:28.94ID:CVwaKTpA0
>>276
メインはdeepfakes/faceswapを使っていて、OpenDeepFaceSwapを試している。で、virtualenvで環境を切り分けている。
OpenDeepFaceSwapは、切り出した顔画像に位置情報入れるので、顔画像作り直しが必要なのが手間かな。trainは一日やったらmodelデータはそれなりに使えるようになった。

278/名無しさん[1-30].jpg2018/05/21(月) 01:45:39.31ID:VXrLpVgN0
A素材、最近よくある髪型で前髪が片方だけL字にカーブして眉毛にかぶってるのは「良くない素材」ですか?
Bに眉毛両方同時に出てるのは用意できるけど、良くない組み合わせならA探しの旅に再出発します

279/名無しさん[1-30].jpg2018/05/21(月) 08:56:53.02ID:8Ja4A6z50
>>278
逆だと大変だけどその組み合わせならなんとかなるんじゃない?
両方前髪無しが作りやすいのは間違いないと思うけど

280/名無しさん[1-30].jpg2018/05/23(水) 14:17:59.18ID:joEsVsiK0
なんか技術的な進歩ありました?
アッチの人らはどうしてんのかな

281/名無しさん[1-30].jpg2018/05/23(水) 22:09:31.69ID:5BxRcZO90
古いGPUでもCUDAのcapabilityが3以上あれば、CUDAに対応できるらしいから、時間が気にならないなら古いやつでも大丈夫なんだな。

今のところtrainって1080ti使っても半日コースなんだろか?
買うか迷うなー。

282/名無しさん[1-30].jpg2018/05/24(木) 00:35:03.26ID:hoBI+HMI0
>>280
アッチというのはこっちのこと?

Discord追加募集します。
既に制作していて技術論を語り合いたい方に限定致します。
https://discord.gg/Z2Q8P8s

283/名無しさん[1-30].jpg2018/05/24(木) 11:14:24.95ID:A8J+wguC0
ガッキーの人参考にしたら上手くいったわ
seamlessをoffでblurを15でかなり自然になった
めんどくさいけどkernelはたくさん用意してaviutlで編集して自然なものを採用すればいい

284/名無しさん[1-30].jpg2018/05/24(木) 15:11:53.50ID:1SOpCUY2M
結局1080tiにしたんだけど、モデルデータの流用はどのようにするんでしょうか?
フォルダにおいとくだけだと上書きされてますよね?

285/名無しさん[1-30].jpg2018/05/24(木) 15:22:37.90ID:1SOpCUY2M
>>284自己解決しました。
モデルAのデータだけとかでなく全部おいとけば流用されてました。

286/名無しさん[1-30].jpg2018/05/24(木) 16:44:06.68ID:1MuGwKb60
素材の共有とかできないもんかねー

287/名無しさん[1-30].jpg2018/05/24(木) 16:53:19.45ID:OKxSgDy50
モデルデータの共有とか自分は考えましたが、普通にやってればそこそこのモデルになりますし、必要ないんですよね。

素材はavサイトのサンプルなりユーチューブなりで。

技術論ですが、
まずAとBのボケや顔が見えにくいフェイスデータでtrainして作成したmodelデータを作ります。
その最中にボケや顔が見えにくいデータを削除して、さっきまて使っていたmodelデータで再trainすると0.033くらいのが0.028くらいまで下がって安定しました。

288/名無しさん[1-30].jpg2018/05/24(木) 17:47:13.22ID:qjlc3g5dp
>>286
そういうのが公に出来ないから、アッチに行く奴らがいるんじゃないの?
海外だとたくさんface setアップされてていいなぁと思う。

289/名無しさん[1-30].jpg2018/05/24(木) 19:45:51.14ID:OKxSgDy50
質問なんですが、一つのモデルデータを永久に流用しつづけるのと、複数のモデルデータを使い分けるのとどっちがいいか、体感でもわかった方いますか?

290/名無しさん[1-30].jpg2018/05/24(木) 20:32:58.68ID:S5Q5ui3ad
B側1人に対して1つのモデルでやってる。

291/名無しさん[1-30].jpg2018/05/25(金) 01:07:43.23ID:efvGzKiq0
新規のBには流用。その後は、B1人に1モデル。
Aとの相性みる時間効率考えると、これが一番早い。
クオリティはあまり変わらん気がする。

292/名無しさん[1-30].jpg2018/05/25(金) 01:21:14.09ID:f4bPNn8s0
自分はBとB(作りたい顔同士)で学習させてベースのmodel作ってAごとにそれをコピーして使ってます
先に正解を学習させたらいいんじゃないかって試したらまぁまぁ効率よかったんで

293/名無しさん[1-30].jpg2018/05/25(金) 10:32:25.41ID:uJdwn1FP0
色々難しそうで敷居が高いなぁ。。
Aの素材ってそもそも何処でとってる?
porn、XVIDEO以外でええとこないか。。

294/名無しさん[1-30].jpg2018/05/25(金) 16:41:10.02ID:l1cTYW+8M
>>292
> 自分はBとB(作りたい顔同士)で学習させてベースのmodel作って
お!lossどれ位になる迄やってからにしてますか?
ちょっと興味が

295/名無しさん[1-30].jpg2018/05/25(金) 19:15:22.23ID:S90624hj0
>>292
試してみました。
openfaceswapでやりましたが、私の環境だとそんなにかなあとなりました。
他の方の感想も聞きたいです。
0からの生成は早かったかもしれないですが、モデル流用した方がたぶんそれより早いんですよね。

296/名無しさん[1-30].jpg2018/05/25(金) 19:44:38.55ID:jfQSCmlt0
http://gigazine.net/news/20180525-3d-face-reconstruction/
新しいコラソフト。誰か試して。

297/名無しさん[1-30].jpg2018/05/25(金) 20:34:27.88ID:Ifx/XHpiM
何故python2系なんだ…

298/名無しさん[1-30].jpg2018/05/25(金) 21:16:51.45ID:S90624hj0
モデルデータ作成が進んでも肝心の身体素材とマッチしないと悲しいなあ。
身体用の女優は何枚くらいでやってますか?

299/名無しさん[1-30].jpg2018/05/25(金) 23:08:06.38ID:f4bPNn8s0
>>294
lossはとりあえず0.02切るのを目安にしてます
低ければ低いほどいいかなと思うんで、その後も空いてるときに学習させたりしてますね

>>295
直前のAが現在のAに似てるかどうかとかも関係してくるのかなとは思います
自分のPCスペックが高くないんでなかなか色々検証はできてないんですが・・・

300/名無しさん[1-30].jpg2018/05/26(土) 07:04:48.82ID:cW0VMBr20
一つ二つ作ったぐらいだとそれで満足しちゃって「使えない」けど、日を開けてちまちま10個ぐらいやって、しかもBを別人にしたりしてると良い感じに前のを忘れてて「おおっ!」てなるのに気づいたw

301/名無しさん[1-30].jpg2018/05/26(土) 12:32:26.41ID:ONVrpbjQ0
素材はプレステージの上半期下半期総集編を使うとうまく手に入るよ。

302/名無しさん[1-30].jpg2018/05/26(土) 16:20:59.14ID:fSmwvGnYp
みんなどれくらいのレベルの作ってんの?
Fakey ぐらいのレベルならわざわざ自分で作るのはハードル高いだけなんだが。
日本人もので最高ってのはないの?

303/名無しさん[1-30].jpg2018/05/26(土) 17:51:45.15ID:ICHptNG6d
>>302
いや、Fakeyに載ってるのは、ガッキーの無断転載と思われるの除けば、イラつくくらいダメダメなのばかりだと思うぞ。公開するなら、もう少しはまともなのにすればよいのにな。

304/名無しさん[1-30].jpg2018/05/26(土) 18:24:04.31ID:3Q2t+DDMa
fakeyで乞食してるやついるけどもし何の対策もしてなかったら普通に捕まるよな

305/名無しさん[1-30].jpg2018/05/26(土) 18:41:23.22ID:iob4D/P1a
Aの動画の方で、ターゲット以外も変換されてちらつくんだが、それってどうしたらいい?
ちなみにopenfaceswap使ってる。
(あとfaceappもインストはしてる。)

306/名無しさん[1-30].jpg2018/05/26(土) 18:53:05.86ID:cW0VMBr20
Aの中にBで用意できない角度がある場合、Aから少し持ってきてBに混ぜたらうまくいくだろうか?
そのままだと写真貼り付けた平らなお面みたいですごくキモいw
一応はお互い「似てる」顔であるのだけど

307/名無しさん[1-30].jpg2018/05/26(土) 19:12:23.34ID:syPKcWTfd
>>305
顔の保存されるフォルダーに入っている変な画像を削除したら?

308/名無しさん[1-30].jpg2018/05/26(土) 19:21:37.96ID:rGvdpei00
某サイトで結構な頻度で作品公開してくれてた人がいたけど
この板からDiscord誘導されてからバッタリになってしまったわ
まぁ猛者同士だけで切磋琢磨してた方が有意義だから仕方ないわな

309/名無しさん[1-30].jpg2018/05/26(土) 19:25:52.23ID:iob4D/P1a
>>307
alignのタイミングで抽出されたターゲット以外を削除してもだめ。
swapの段階で作られるmarge画像は削除自体だめらしい。

310/名無しさん[1-30].jpg2018/05/26(土) 19:56:50.93ID:syPKcWTfd
>>309
deepfakes/faceswapだと、顔画像削除すると削除された所は変換しないオプションついているんだが…

311/名無しさん[1-30].jpg2018/05/26(土) 20:04:10.80ID:iob4D/P1a
>>310
インストしてるのは
fakeapp
だったわ。
情報ごちゃってしてすまん。

ちなみにそのオプションなんて名称だ?
openfaceswapとfakeappで確認したい。

312/名無しさん[1-30].jpg2018/05/26(土) 20:31:16.66ID:syPKcWTfd
>>311
convertのオプションで -aligned-dir 顔画像のあるディレクトリ と指定すると、そこにある画像に対応する画像だけ変換するようになる。
なので、extractで顔じゃない画像が抽出された時に、その変な画像を削除しておくとconvert後の合成画像に影響がなくなる

313/名無しさん[1-30].jpg2018/05/26(土) 20:42:04.74ID:syPKcWTfd
>>312
間違えた!
-a オプションだった!
ヘルプを見ると「このフォルダから顔を削除すると、変換中に顔かスキップされます」と書いてある

314/名無しさん[1-30].jpg2018/05/26(土) 20:44:53.00ID:syPKcWTfd
>>313
ちなみに、fakeapp2.2にはこのオプションはないよ

315/名無しさん[1-30].jpg2018/05/26(土) 21:00:47.25ID:iob4D/P1a
>>314
openfaceswapでスワップのタイミングに実行するコマンドを拡張して -a を入力できた。
ありがと!

316/名無しさん[1-30].jpg2018/05/27(日) 00:49:01.14ID:7nOCBtlV0
>>296
python2系でどうやってtensorflow使うんだ

317/名無しさん[1-30].jpg2018/05/27(日) 01:38:25.62ID:QqalQ1vNa
>>296
面白そうだけどどうなのかな

318/名無しさん[1-30].jpg2018/05/27(日) 02:35:20.57ID:yWya9OcZ0
>>308
じゃ、Discord 行けばなんか見れるかもしれんってことか。それか、日本人で高レベルのは自分でつくるしかない?

319/名無しさん[1-30].jpg2018/05/27(日) 04:18:57.65ID:PLH2nA0l0
ディスコは作ってる人だけなんでしょ?
環境無いから無理だわ

320/名無しさん[1-30].jpg2018/05/27(日) 10:08:34.22ID:pR3oTBM60
fakeyみれない

321/名無しさん[1-30].jpg2018/05/27(日) 13:13:06.26ID:WGcqLZCx0
>>318
ディスコは製作者のみだよ
しっかり審査してるっぽいし
日本の高レベル作品の人は引退してしまったし
それに次ぐ人もディスコ参入で消息不明
更に敷居が上がってしまった感じ

322/名無しさん[1-30].jpg2018/05/27(日) 14:49:54.08ID:FcngBLam0
Discordは作品うpしないと専用チャンネルに入れず雑談スレしか見られない
しかもうpしないヤツは定期的にDiscordからキックしてるんでクレクレ君は生存不可

323/名無しさん[1-30].jpg2018/05/27(日) 17:44:19.61ID:YNzlnPK50
それって定期的に新作を(限定)公開し続けないと弾かれるってこと?
3つぐらいやってみましたーえへへみたいなレベルじゃソコに居続けることもダメなんか・・厳しい世界やな

324/名無しさん[1-30].jpg2018/05/27(日) 17:56:03.98ID:PLH2nA0l0
>>323
そりゃ作ったものの交換できないなら製作者限定の意味ないだろうしな・・・

325/名無しさん[1-30].jpg2018/05/27(日) 18:40:36.06ID:7nOCBtlV0
もう引退とかサイクル速いな

326/名無しさん[1-30].jpg2018/05/27(日) 19:42:51.86ID:0YtAyKeVa
ディスコードってなにか技術的なやりとりでもしてんの?
お喋りしながらお互いの作品でシコリあってるだけなら需要無いんだけど

327/名無しさん[1-30].jpg2018/05/27(日) 20:22:03.93ID:MFkXkAHir
誰か別のグループ作ってくれないかな
もっとユルいグループ

328/名無しさん[1-30].jpg2018/05/27(日) 21:42:02.28ID:XZGMxJNK0
会社の同僚の女の子で作ったけど背徳感MAXで興奮するなw

329/名無しさん[1-30].jpg2018/05/27(日) 22:08:42.74ID:KW/zDwioa
外人と日本人合成すると肌の色が気になるんだがそのあたり自然にする方法ってあるかい?

330/名無しさん[1-30].jpg2018/05/27(日) 22:57:04.88ID:WGcqLZCx0
作るのに手間かかるし、それ相応の対価が欲しいのは分からんこともないけどね。
かつての、ねる神氏が納得いけば公開するなんて言ってくれてたけど難しいわな

331/名無しさん[1-30].jpg2018/05/27(日) 23:30:55.06ID:XZGMxJNK0
ねる神はしんだんだ
あきらめろ

332/名無しさん[1-30].jpg2018/05/28(月) 00:47:31.36ID:pfRzrSSD0
>>327
ここでやるかCG板でやるかがいいと思う
先鋭化したコミュニティは熱的死に至るのも速いし、死後に情報にアクセス
できないんで意義も少ない
wikiという手もあるけどメリットあるのかな

333/名無しさん[1-30].jpg2018/05/28(月) 01:08:35.10ID:Bm7GAiqe0
>>332
同意。
でもこういうのはひっそりやるもの。
今の日本だとちょっと騒ぎになるとじゃあfake作成ソフト配布サイトには
アクセスきんしーとかやりそう。
ITウンチが日本には多いから、deepfakeはダメ、フォトショはok、ディープラーニングもokみたいな馬鹿な規制を100%絶対にやる。
欧米を見倣ってフェイク見破りAI開発するからokなんて思考は絶対にしない。
だからFakeyもやめて欲しいわ。
今の政治はコピペもできない老害が動かしてんだから禁止禁止絶対馬鹿騒ぎする。
皆も配布するならもっとアングラに潜ってくれ。
レス打つときに結婚式の映像に使うんだけどーって言い訳するくらい身長でもいいと思うわ。

長文すまそ、読まなくていいぞ。

334/名無しさん[1-30].jpg2018/05/28(月) 01:47:25.62ID:zf17A5W/0
>>330
対価っていうか単純にアップした人だけが捕まる可能性があるってだけじゃない?
誰かが作ったやつを見たいならまず先陣切って自分がアップするしかないわな

335/名無しさん[1-30].jpg2018/05/28(月) 06:06:47.35ID:pfRzrSSD0
>>333
いや、もちろん全文読んだよ
まるっと同意
すり合わせというか、バランスどりが難しいよね

336/名無しさん[1-30].jpg2018/05/28(月) 06:20:34.71ID:Su57q8660
3分500円だったら払う、けど足がつくから、本気でやるなら玉葱の深いとこでbitcoin決済をやるしかない、でもそこまでやると犯罪臭がすごすぎて誰もやらない

337/名無しさん[1-30].jpg2018/05/28(月) 08:49:20.93ID:/c8ISds1p
日本では、コラ作るのは合法だが、ばらまいたり、売ったりするのは違法って解釈だからなぁ。
作ったら、承認欲求と他の作品見たいって欲求から、リスクを抱えてるヤツ同士物々交換するしかないってなるよね。

338/名無しさん[1-30].jpg2018/05/28(月) 09:58:16.33ID:pRHbyCkz0
>>333
1から100まで完璧に同意だわ

339/名無しさん[1-30].jpg2018/05/28(月) 16:06:09.77ID:LxVeTHSu0
>>336
3分500円くれるなら
寝ないで頑張るw

340/名無しさん[1-30].jpg2018/05/28(月) 16:20:57.97ID:nkH5nFzba
自分で作らずただ古事記したいやつは一生そうしてろ

341/名無しさん[1-30].jpg2018/05/28(月) 17:36:51.67ID:zoUOMMH1a
コンテンツが潰れる原因って大抵はTPOをわきまえないキモオタのせいだよね
やっていい事と悪い事の線引きくらいは自分で判断してください

342/名無しさん[1-30].jpg2018/05/28(月) 19:29:07.65ID:iL5uGcCw0
>>333だけど、古事記批判だとかそういう流れに持ってくつもりはなかったんだな。

この流れが続くと技術交換スレ的に成り立たなくなってしまうから、この辺りでやめとこう。

今度非エロでloss値毎の画像の違いとか上げようかと思うわ。
頑張る目安になるだろうし。
リアル系のアニメ絵とかアンチャなら認識するだろうからそういうので暇見て作成する予定。

343/名無しさん[1-30].jpg2018/05/28(月) 21:23:09.79ID:7jSuoNT/0
そもそも誰これwみたいなのしか無いからそんなビビること無い説ない?

344/名無しさん[1-30].jpg2018/05/28(月) 23:04:06.94ID:d+2Gche60
よく誰か分からんもの作るのに時間かけれるな

345/名無しさん[1-30].jpg2018/05/28(月) 23:10:19.90ID:mHqdbV/Ra
fakeyで個人名出してるやつは全員アウトだよ
早朝に訪問してくるから震えて眠れ

346/名無しさん[1-30].jpg2018/05/29(火) 00:36:55.34ID:wP2gzBat0
事実を以て批判する行為と煽りも分けないと不毛になるな
>>345の言うことは本当にその通りだけど、2行目は煽ってる

347/名無しさん[1-30].jpg2018/05/29(火) 02:05:38.57ID:EhzJULkn0
エロじゃ無ければ良くない?
そこまで目くじら立てんでしょ

348/名無しさん[1-30].jpg2018/05/29(火) 02:12:59.33ID:vuwbEspf0
エロじゃなければいいけどエロじゃないものをわざわざ時間かけて作るのかって話

349/名無しさん[1-30].jpg2018/05/29(火) 07:03:24.02ID:wP2gzBat0
>>348
技術交換と向上が目的ならアリでしょう
作品として成立してなくてもいいし、二、三秒でもいけるかも
尤もうちの650じゃそれでも荷が重いけどw

350/名無しさん[1-30].jpg2018/05/29(火) 14:10:32.14ID:zafxP86j0NIKU
例えば元々水着でグラビアやってる未成年の顔を、普通の服着てる大人にすげ替えた動画つくったら何に抵触する?

351/名無しさん[1-30].jpg2018/05/29(火) 14:54:34.75ID:o78R/dw9rNIKU
>>350
せいぜい肖像権の侵害。ていうかそれ何が面白いの?

352/名無しさん[1-30].jpg2018/05/29(火) 15:48:31.52ID:zafxP86j0NIKU
いやこのスレに貼るならその程度ならおkかな?とか思って
例えば一般的に嫌う人多いAVの序盤のインタビューシーンとかならセーフかな?とか
どっちみち「似てるけど本物とは言えんわなw」な動画だし、
良い感じなら「その調子で後半も行けるのか・・ゴクリ」みたいに盛り上がるかもしれんし

実際に動画作成してる人間同士のアドバイスもここでやれれば新規さんへの良い刺激になるかもと思って
つか面白いっちゃ面白いと思わない?

353/名無しさん[1-30].jpg2018/05/29(火) 18:47:50.70ID:jdeWw+ZjMNIKU
fakeappなにやっても急に動かなくなったんやが
インストールし直しCOREフォルダ入れ直しCUDA入れ直しfreamwork入れ直ししてもダメ
fakeapp以外で実用性高いソフトある?

3543472018/05/29(火) 19:37:45.65ID:EhzJULkn0NIKU
>>348
ごめん、エロというのは適切でなかった。
18禁じゃ無ければ良くない?
youtubeレベルのエロなら…っていう。

355/名無しさん[1-30].jpg2018/05/29(火) 20:32:05.65ID:UdJ2IC0O0NIKU
>>353
faceswapがおすすめです。
fakeappはCoinhive入れて海外フォーラムで炎上したり、コード公開しなかったり、他にもいくつか問題があるので、あまりオススメはしません。

356/名無しさん[1-30].jpg2018/05/29(火) 20:44:39.38ID:UdJ2IC0O0NIKU
>>353
Fakeappのようなソフトでコードが公開されていないというのは、かなり怖いです。
Coinhive以上のマルウェアが仕込まれる可能性が常にあります。
deepfakes/faceswapやOpenFaceSwapなどのOSSを利用することをオススメします。

もちろんリスクを承知の上なら、Fakeappでも良いかもしれませんが。

357/名無しさん[1-30].jpg2018/05/29(火) 23:03:25.47ID:lKiZahTk0NIKU
急に動かなくなるときはよくある。
trainしたmodelがぶっ壊れたり、急にswapしなくなったり、昨日と同じ環境で再構成しても動かなかったり。
そんな時は諦めて次に行くしかない。
大抵なんともならないから。

358/名無しさん[1-30].jpg2018/05/29(火) 23:06:51.81ID:lKiZahTk0NIKU
model作成中の黒画面すらでないならインスコしたファイルが怪しくなってるから環境再構成。
赤字警告やエラーでtrainできないときはmodelデータがぶっ壊れたかGuiにでないエラー。
一度プログラム閉じて新しい素材使っても
train開始できないなら初期化再構成オススメします。

359/名無しさん[1-30].jpg2018/05/30(水) 01:25:39.13ID:AduS3lSg0
1080tiから1050tiにマシン変えてトレーニングすると信じられないくらい遅いのな。
顔抽出始まるまで80tiなら初回でも数十秒かからないかなのに50tiだとフリーズしてるのかと思ったわ。
2台作業のが効率いいかなと導入したが、先が思いやられる。

360/名無しさん[1-30].jpg2018/05/30(水) 03:00:31.86ID:tqqN+0vO0
OpenFaceSwap使い始めたんだが、FACESAに元顔FACESBに変えたい顔画像置いてMODEL押せばいいんだよね
プロンプト開いて10秒くらいすると「Pythonは動作を停止しました」って出て止まってまう…

361/名無しさん[1-30].jpg2018/05/30(水) 03:49:44.34ID:tqqN+0vO0
Miniconda3インストールと環境変数の追加やっとけば動く
海外のフォーラムも漁ったけど今いち分からん(pythondfの中身はfaceswap-masterの中に入れるだけ?そっからpowershellでインストール?)
誰か助けてくれ

362/名無しさん[1-30].jpg2018/05/30(水) 08:18:26.76ID:mXD0+B4lM
>>361
せめてcpu gpuくらい書かないと誰も答えてくれないと思うよ。
基本的に2015以外のマイクロソフト以下略全消しして適したcudaとcudnn入れて動かないならopenfaceswapは動かないかと。

363/名無しさん[1-30].jpg2018/05/30(水) 09:16:02.20ID:mXD0+B4lM
今やってるのがBの普通の顔100枚のみでtrainしまくったmodelで流用して、アイスキャンデー食べてるAと合成するほうが良いのか、それとも1からAとBを合成するほうがいいのかの確認

Bの顔だけでtrainしたmodel流用してAのキャンデー食べてる顔を再trainするとloss値は下がるのに全然良くならなかったわ。
横顔が課題だ。

364/名無しさん[1-30].jpg2018/05/30(水) 09:23:15.98ID:NCPvV51w0
>>363
結局のところ、素材が同じなら過程はどうあれ結果は同じだと思ってるんだけどそうでもないのかな?
どんなにtrainしようがBに横顔入ってないと無理だろうし

365/名無しさん[1-30].jpg2018/05/30(水) 13:13:19.01ID:BXIXjyueM
>>362
i7 2600k、GTX780tiで、openfaceswap自体は立ち上がるし処理も始まるんだがPythonが動作を停止しましたと出て落ちてしまう…

366/名無しさん[1-30].jpg2018/05/30(水) 13:25:40.88ID:mXD0+B4lM
>>365
gpu性能的にoriginalならtrainできないだろうから、lowmemにしてる?

367/名無しさん[1-30].jpg2018/05/30(水) 13:41:40.50ID:AduS3lSg0
>>364
100%loss値なしで自然な合成できるなら結果は同じだと思う。

でも実際は違うから例えば50%の再現だと数字で出てたとしても実際には左半分のコピーしかないかもしれないし、右だけかもしれないし、もしかしたらスプレー状に50%再現するかもしれないと俺は思ってるよ。

loss値が同じ0.01でもどこを切ってどこを残すかは毎回同じじゃない気がするんだよね。
そのへんは人工知能に自信ニキがいたら解説頼みたい。

368/名無しさん[1-30].jpg2018/05/30(水) 13:47:08.73ID:AduS3lSg0
>>363
連レスですまないが、こっちの件でイチからAとBの画像をtrainしたやつがtrainし終わった。
なかなかイイカンジなんだが、仕事中にtrainが終わってしまったので変化の過程を見られなかった。
lossはAが0.09Bが0.14。

完成したモデル流用した方はキャンデーの変な色がloss値0.17あたりでも消えなかった。

369/名無しさん[1-30].jpg2018/05/30(水) 14:01:39.43ID:1IjX6LME0
>>368
単にFacesetが足らなくて元のモデルデータで補ってるだけじゃない?
decorderは現在学習してるFacesetを元に書き換えてると思う

370/名無しさん[1-30].jpg2018/05/30(水) 14:35:18.36ID:TW7cMQeV0
例えばフェラ顔作りたいとして、AからBへ数枚フェラ顔紛れ込ませる場合は両者が主観的に似てる場合はうまくいく気がする

ただ、顔を置き換える範囲にてぃんこがあると元動画が無臭性でも自動モザイクがかかる模様w
ひょっとしたら「ギリギリモザイク」ぐらいのやつの方が「完成度」は高くなるのかもしれない

371/名無しさん[1-30].jpg2018/05/30(水) 16:16:09.51ID:/8f3wclgp
Deepfakeの学習は、あくまでAからA'の変換、BからB'への変換をトレイニングしてて、それぞれの誤差が、Loss なんだが。
AからBの変換をトレイニングしてると思っての議論が多いようだけど。

372/名無しさん[1-30].jpg2018/05/30(水) 21:50:54.36ID:yENMj0ei0
今の主流のdeepfakeはオートエンコーダーを使ってて、GANは使われていないですからね。
一応GANも使えるけど現実的ではないですよ。

373/名無しさん[1-30].jpg2018/05/31(木) 01:50:45.18ID:pKMr0Irp0
>>371
自分も根本から勘違いしてたかも
とすると、AとBはどんな関係なんだ?

374/名無しさん[1-30].jpg2018/05/31(木) 04:46:19.31ID:c7pStfgQ0
>>373
trainではAとBには同じencorderを使います(decorderは別)。
これでAとBを同じ方法で抽象化できるようになります。
convertではencorderで抽象化したAに対して、Bのdecorderを利用することで、Aの表現を持ったBの顔を生成することができます。

375/名無しさん[1-30].jpg2018/05/31(木) 07:32:36.84ID:7aDRFDcN0
A群にBで用意できない角度があると平らなお面になるのはなんで?

376/名無しさん[1-30].jpg2018/05/31(木) 07:57:04.68ID:se0N7DpBM
>>371
そうなのか!
200枚でloss値低いよりも1万くらい使ってloss値少し高いほうが自然にできたのが納得した。

>>374
これは目鼻口の距離とか大きさだよね?
まずA'とB'を同じ道具箱にいれて(train)、変えたい方の特徴を強めにいつでもとり出せるようにしておいてる(convert)ってことでしょうか。

知ったか知識だから指摘がめちゃ助かる。

377/名無しさん[1-30].jpg2018/05/31(木) 11:19:17.08ID:pKMr0Irp0
>>374
どうもありがとう!
自分の読解力の問題で、ちゃんと合ってたw

378/名無しさん[1-30].jpg2018/05/31(木) 13:42:17.84ID:se0N7DpBM
cnnの簡単なサイト見ると、最大値で特徴を出すみたいなこと書いてあるんだけど。

deepfake作ると目が少し小さく感じない?
なら目を一回り大きくしといたらちょうどよくなるのかな?

379/名無しさん[1-30].jpg2018/05/31(木) 17:40:46.46ID:JifPPcA80
あとなAはA'を作りBはB'を作ってそこから出力するの聞いて理解したのが。

アイスキャンデーくわえてる人間作りたいなら、BがくわえてるやつよりもAがくわえてるやつのほうが精度が上がる。

Aのアイスキャンデー画像を倍に増やした瞬間にBに何も変更しなくてもぐんとそれらしくなったわ。

偶然かな?
人工知能に自信ニキ的にはどう?
皆の意見聞きたいわ。

380/名無しさん[1-30].jpg2018/05/31(木) 19:48:06.91ID:JifPPcA80
>>379
ごめんな。
これはただ一部の顔が不足してただけだったきがす。

381/名無しさん[1-30].jpg2018/06/01(金) 02:35:32.95ID:iCp00xpm0
openfaceswap,
FACEの処理で「ImportError: DLL load failed: 指定されたモジュールが見つかりません」
ログ見てもapi.pyはちゃんとあるし他のツールも入れてるんだが 何度再インストールしてもここで詰まって困ってる

382/名無しさん[1-30].jpg2018/06/01(金) 05:52:00.91ID:6ep1muqK0
>>381
よくあるのはcuDNNのバージョンが違うとか(あるいはそもそも入っていない)とか、PATHが通っていないとかですかね。

383/名無しさん[1-30].jpg2018/06/01(金) 12:56:37.95ID:MzSYTU9RM
>>381
faceならcuda関連怪しいね。
それかマイクロソフトなんちゃらのやつ2015以外を消さないでいても色んなエラー吐くから、2013とか2017あったらアンインストールすべし。

384/名無しさん[1-30].jpg2018/06/01(金) 13:50:35.92ID:kMN38/jRp
Path通ってないが可能性としては一番高い気がする。

385/名無しさん[1-30].jpg2018/06/01(金) 18:24:30.90ID:DNEzIOxm0
だね。
ありがち。
cudaフォルダにcuDNNのcudaフォルダ上書きするのが1番確実。

386/名無しさん[1-30].jpg2018/06/01(金) 21:33:06.31ID:S8F0Vz9/0
gpuもってないので、cpuで動くやつ使ってたが、遅すぎて使いものにならなかった
0.02に到達するのに1週間かかりそうな感じ

というわけで、しばらくgoogleのクラウドで試してたんだが
やっぱりリモートは面倒なのでgpu欲しくなってきた

gtx 1050 とかいうのが2万円くらいで売ってるので
貧乏な俺でも手が出そう
このあたりのgpuでも半日で0.02行けますか?
(細かいことを言うと、マザボがpci express 2, 6レーン。。。)

あと、出来ればlinuxで作業したいんですが
これ系のプログラムってlinuxで動きますか?

387/名無しさん[1-30].jpg2018/06/01(金) 21:39:17.23ID:6ep1muqK0
>>386
個人的には1050が最低ラインだと思います。本音を言えば1080以上が欲しいです。
Fakeapp等のGUIソフトはWindows専用が多いですが、faceswapはLinuxのCUIで動きます。

388/名無しさん[1-30].jpg2018/06/01(金) 22:15:26.94ID:jHXpTNl50
1050tiでやってる。
最初のモデルは時間かかるったけど、その後は全て流用でやってる。初のBは1日置くけど、お試しで1-2時間。良さそうなら一晩掛けて仕上げてる。髪の毛たくさんかかったり、咥えてるのは数日以上かけてのんびりやってる。動画の長さにもよるけど。
Originalモードには 1060 6g無いと厳しい。

389/名無しさん[1-30].jpg2018/06/01(金) 22:15:28.04ID:DNEzIOxm0
1050ti lowmem専用機
1060ti originalをギリそこそこに回せる
1070ti コスパ良い8gb
1080ti 現状最強。


1050tiでもそこそこできるけど、original回せないからきつい。

390/名無しさん[1-30].jpg2018/06/01(金) 22:18:07.52ID:jHXpTNl50
Original とLowMem って、画質とかどれくらい変わるの?
LowMem しかやったこと無いんだが。

391/名無しさん[1-30].jpg2018/06/02(土) 00:22:04.15ID:1x6U8pRq0
>>380
一部の顔というのは具体的にアングル?
あるいは表情なのか、具体的にはどんなものなの?

>>389
マイニングバカが消えたら少しは1080安くなるかな

392/名無しさん[1-30].jpg2018/06/02(土) 00:29:35.72ID:uozqqLlI0
>>382-385
Pathも通してるし、海外のフォーラムで同じような人たちのエラー見て再インストール、cuDNNもPathも通しなおした
だけどやっぱりここで止まってしまう
【AIコラ】fakeapp その2【革命】 [無断転載禁止]©bbspink.com	YouTube動画>7本 ->画像>56枚
openfaceswap入れなおしたらPathがリセットされちゃったから今しがたまた入れなおしたけど
【AIコラ】fakeapp その2【革命】 [無断転載禁止]©bbspink.com	YouTube動画>7本 ->画像>56枚
それでもやっぱり指定されたモジュールが…のエラーで止まってしまう
ここしか当てになる場所無いから誰か分かる人いたら教えてほしい

393/名無しさん[1-30].jpg2018/06/02(土) 00:38:10.06ID:4yk16EDx0
pathは以下を指定だったはず。
%USERPROFILE%\AppData\Local\Microsoft\WindowsApps

394/名無しさん[1-30].jpg2018/06/02(土) 01:31:44.31ID:c7o/FC360
>>392
これですかね。 -> https://www.deepfakes.club/forums/topic/importerror-dll-load-failed/

あるいは別のソフトのimagesを使いまわすとalignments.jsonに互換性がなくてdlibが悪さすることがあります。

395/名無しさん[1-30].jpg2018/06/02(土) 01:46:05.30ID:1x6U8pRq0
dlibのコンパイルってcmakeの他何がいるんだったっけ

396/名無しさん[1-30].jpg2018/06/02(土) 02:06:51.75ID:uozqqLlI0
>>393のパスを追加したけど駄目だ
>>394でも書かれてる通り環境変数のパスは入ってるしi72600kにAVXあるから関係ないだろうし、手詰まりだ
imagesもopenfaceswapでvideoから書き出したものだから大丈夫なはず

397/名無しさん[1-30].jpg2018/06/02(土) 07:15:12.32ID:9juvA4+d0
.jsonファイルは自分も使いまわしでなぜか突然エラー吐いたりするから、それだけ消して読み込みし直してる(新しい.jsonができる)
あと関係ないけど、最後動画化するとき別動画のタイトルがアプリ側に残ってて「指定されたファイルねーよ!」て怒られたのも特定時間かかったw

398/名無しさん[1-30].jpg2018/06/02(土) 19:41:35.81ID:ZrL0C23eM
>>391
A側とB側の一部アングルだね。

どちらかが足りてないと0.13くらいまでいっても大した作品にならない。

なんで、足りなくなりそうな横とか下からのアングルはX軸で反転させて倍に増やしてる。

399/名無しさん[1-30].jpg2018/06/02(土) 19:53:20.15ID:ZrL0C23eM
>>390
ENCODER_DIM = 1024がoriginalで512がlowmemなんだ。
originalの1024を512に変えると1050tiでもoriginalで回せるみたいなんだけど
にわかだから何が違うかまではわからんね。

400/名無しさん[1-30].jpg2018/06/02(土) 19:55:28.23ID:ZrL0C23eM
>>396
最悪windows再インスコだけど、それは試したかな?
自分もcudaインストール何台かがつまったけど、毎回違うパターンでつまるし。

401/名無しさん[1-30].jpg2018/06/02(土) 20:54:44.26ID:4yk16EDx0
>>398
左右反転はどうせトレイン中に勝手にやってくれるから意味ないよ。

402/名無しさん[1-30].jpg2018/06/02(土) 21:42:10.33ID:0PGIwpWv0
>>399
ここで言い出したの自分なんだけど、その時はOpenリリース直後でnode下げれば動きそうという安易な考えだった。lowmemはnodeとかlayerの設定を考えて設計されているので設定いじらない方がいいと思う。
nodeやlayerで学習の質は上がっても画質は変わらないんじゃないかな

403/名無しさん[1-30].jpg2018/06/02(土) 22:18:22.70ID:a3WEX7KN0
fakeappでレイヤーとノード数、バッチサイズも同じでも
data_Aとdata_Bで抽出したface数が大きいとmemory error出ました
個人的なイメージではレイヤー、ノード、バッチの大きさがコア計算部分のメモリ使用量決めるイメージなんですが。。。

元のdata_A,B画像の数や抽出したfaceっ数てgpuメモリに関係あるんですか?
それともgpuのメモリじゃなくてメインメモリが足りないと言っている?

404/名無しさん[1-30].jpg2018/06/02(土) 22:36:02.76ID:c7o/FC360
>>399
ちょっとコード見た感じ、ENCODER_DIMはエンコーダーの隠れ層のニューロン数でした。
kerasのDense(全結合レイヤ)に食わせるようです。
おそらく畳み込みも変わってくると思うので、数字変えるだけだとダメな気がします。

405/名無しさん[1-30].jpg2018/06/03(日) 01:28:11.09ID:G0hBC1doa
サル等の動物を顔と認識してくれねえんだが、そういうのってなんとかなるん?
あとこういうFAQがまとまってる所おしえてくれ。

406/名無しさん[1-30].jpg2018/06/03(日) 16:37:13.87ID:CWMMxdzJa
スレ遡ってみたけど言及がないので一言だけ。
自分と同じくグラボ性能がアレな人はGoogle Colab使えばいいと思う。K80無料で使えるので。

407/名無しさん[1-30].jpg2018/06/03(日) 17:20:10.50ID:zPLyI5SD0
知り合いで作ってるけどどうしても写真の数が少ないから
プレビューで表示されている顔を使えたらいいのに

408/名無しさん[1-30].jpg2018/06/03(日) 22:26:55.74ID:ELLPHtXT0
>>398
ありがとう
難しいアングルを推測で作ってくれたら最強なんだけどねー

409/名無しさん[1-30].jpg2018/06/04(月) 01:05:27.14ID:hhzDcStV0
GTX1060の3GBでOpenFaceSwap使ってる人います?
LowMemでバッチサイズ下げても動かなくって・・・

410/名無しさん[1-30].jpg2018/06/04(月) 07:44:16.25ID:sA16XiuIM
>>408
画像一枚でtrainしてるのを見てるとある程度はやってるっぽい。

枚数と質のバランスが難しいわ。

411/名無しさん[1-30].jpg2018/06/04(月) 10:42:55.85ID:sA16XiuIM
AからA'への変換の誤差がloss値って少し前に書いてあったんだが、少ない枚数でAをtrainすると逆にloss値が高止まりするようなキガス。


他には、
正面顔はすぐ下がるけど、横顔やくわえた顔はloss値下がりにくい傾向。


ハードなプレイの顔の変換は今のところ無理なんじゃないかな。

412/名無しさん[1-30].jpg2018/06/04(月) 15:06:38.57ID:xFKuoCgW0
trainはlowmemでもいけるけど、エンコードはオリジナルのがいいと思うな。

413/名無しさん[1-30].jpg2018/06/04(月) 19:31:42.67ID:BFWFZsjQp
>>412
エンコードって、SWAP?
何がいいの?

414/名無しさん[1-30].jpg2018/06/05(火) 10:28:17.29ID:kH/4+LPpM
>>413
画質だね。
一週間trainしたやつよりも明らかに良かった。
ガッキーの人もlowmemで回してオリジナルでエンコードしてるらしい

415/名無しさん[1-30].jpg2018/06/05(火) 13:01:48.57ID:6iLU/7ztp
Openfaceswapで、LowMem で作ったモデルで、SWAPの時Original選んだら、エラーになるんだが。
なんか間違ってるんか?

416/名無しさん[1-30].jpg2018/06/05(火) 15:10:07.75ID:2lo6RkK90
>>415
君は間違ってない。
ガッキーの人はExtractの精度のことを言ってた。

417/名無しさん[1-30].jpg2018/06/05(火) 16:23:21.11ID:8D3oF27/0
1060の6Gでオリジナル普通に動くけどlowmenにはしなくていいんだよね?

つか1080PのA動画に99年のTVcmから抜き出したB移植したらBが0.02ぐらいから下がらずぼんやりした顔になってる・・写真集で画質良さげなのも混ぜてるけどもう一晩回したら良くなるんだろうか・・
顔のアングル変わると前田敦子みたいに顔面センターになっちゃうしw
面白いけど難しいもんだコレ

418/名無しさん[1-30].jpg2018/06/05(火) 19:17:43.80ID:V2Q5ub8d0
>>415
originalのmodelをlowmemと同じ512で回すようにしたらoriginalでもswapできますよー。
ただやっぱり通常のoriginalモデルとは互換性はありません。

>>417
ぼんやりした顔の時点でわたしは学習候補から消してますね。

419/名無しさん[1-30].jpg2018/06/05(火) 20:20:31.78ID:3tt6+4j90
>>417
A動画に映ってる顔が256x256より大きいと荒くなるよ多分
Bがそれでいいかは分からない

420/名無しさん[1-30].jpg2018/06/05(火) 20:23:46.11ID:3tt6+4j90
>>409
自分はちょっと上で書かれてるENCODER_DIMを256にして動かしてるけど非推奨っぽいからどうだろうね
それなりには作れてるけど

421/名無しさん[1-30].jpg2018/06/07(木) 21:42:39.70ID:P1aWucWI0
openface swapで映像が早送りみたいになったことある人いますか?

422/名無しさん[1-30].jpg2018/06/07(木) 22:19:29.76ID:q0a8/e6f0
>>421
fpsの設定間違えるとそうなりますね。

423/名無しさん[1-30].jpg2018/06/07(木) 23:26:43.31ID:2U08JOHg0
これ動画じゃなくて画像コラできる?

424/名無しさん[1-30].jpg2018/06/08(金) 01:32:22.91ID:2TCwaPB60
>>422
すいませんfpsの設定ってどれですか?

425/名無しさん[1-30].jpg2018/06/08(金) 06:33:41.97ID:qBGTdLe/0
openfaceswap、やっぱりFACEのAlignが出来ない…
windowsクリーンインスコまでしてcudnnも環境変数も全部きちっとやったのにエラー出てフォルダに何も出力されない
【AIコラ】fakeapp その2【革命】 [無断転載禁止]©bbspink.com	YouTube動画>7本 ->画像>56枚
分かる方いますか?

426/名無しさん[1-30].jpg2018/06/08(金) 06:59:58.60ID:0EhDqqdVd
>>425
alignができないというのが意味不明だが、CuDNNが駄目と書いてあるんじゃないの。

427/名無しさん[1-30].jpg2018/06/08(金) 09:58:58.03ID:flzRj5zO0
>>424
OpenだとImgA(B)とMovieの歯車のところ

>>425
cuDNNのバージョンはあってるんだよね?Archiveにある7.05 for CUDA9.0

428/名無しさん[1-30].jpg2018/06/08(金) 13:34:50.03ID:Dc2p6v5q0
>>425
普通にエラーメッセージにCuDNNのバージョンが違うって書いてありますよ。
でもこの感じだとCUDAとかのバージョンも違ってそうですね。

429/名無しさん[1-30].jpg2018/06/08(金) 14:24:16.65ID:qBGTdLe/0
>>426->>428
ほんとにありがとう CUdNNのバージョン違いでした(初歩的な事ですいませんでした)

430/名無しさん[1-30].jpg2018/06/08(金) 20:21:26.02ID:5myELEqYa
これカスタマイズ方法とかありますか?
FaceFilterとか自分で作れるようなら対処したい。
肌の色を自動調整してくれねえと使い勝手が悪い。
あと人物判定もなんとかしたいなあ。
※ openfaceswap

431/名無しさん[1-30].jpg2018/06/08(金) 22:42:31.34ID:Dc2p6v5q0
>>430
カスタマイズはオプションが大量にありますよ。詳細は日本語記事はないと思うので、ソースコードを参照してください。
人物判定はtools.pyというCUIツールが付属しています。これも詳細はソースコードを読むのが一番早いと思います。

432/名無しさん[1-30].jpg2018/06/09(土) 00:03:44.60ID:QpH314Iv0
すみません
openfaceswapでの動画からの画像切り取りや顔変換後の動画作成でGPU(GTX1060 6GB)が働いてくれないのはなぜでしょうか?
トレーニングではしっかりと使えてるみたいで、これ以外は問題無く動画完成までいっています

433/名無しさん[1-30].jpg2018/06/09(土) 00:35:24.85ID:J64DuSCLM
>>432
modelが作れないのかswapができないのか
movieが作れないのか
ちょっと判りません
もう少しOpenFaceSwapの用語に合わせて伝えて頂けると助かります。

又、ご自身の実行環境(cuda,cudnnのバージョン、gpuの型番)も教えて貰えると解答し易くなるので
おねがいしまーす

434/名無しさん[1-30].jpg2018/06/09(土) 01:25:34.16ID:VmqFVrDX0
と書いた後に気が付きました。
fgmpegでnvencオプションを使いたい。って話なんですかね?

因みに、顔抽出の速度改善は現状無理っぽいです

435/名無しさん[1-30].jpg2018/06/09(土) 02:23:51.34ID:kuggzTZL0
OpenfaceSwap、alignまでは出せますがmodelが出せません
「ResourceExhaustedError」と出て処理が止まってしまいます…
【AIコラ】fakeapp その2【革命】 [無断転載禁止]©bbspink.com	YouTube動画>7本 ->画像>56枚
GTX780,lowmemoryの設定にして、FACEデータもopenfaceswapで抽出したものです
どなたか…

436/名無しさん[1-30].jpg2018/06/09(土) 02:32:56.31ID:kuggzTZL0
ごめん…これめちゃくちゃmemory使うんだね…
3GB乗ってるから大丈夫かと過信してた Batchsize2にしたら動きました

437/名無しさん[1-30].jpg2018/06/09(土) 16:14:18.92ID:BCQ/pgYw0
↑でgpuどれ買うか悩んでたものです
結局1060買いました
4万円くらい
メモリ6gあって、今のところデフォルト設定でメモリ不足のエラーは起きてません

で、色々試してるんですが
これヤバいね
知り会いの可愛い娘をdata_bに使ってるんだが
静止画30枚くらいしかなくても十分行けるwww

438/名無しさん[1-30].jpg2018/06/09(土) 18:43:30.57ID:jZVSXfIf0
>>437
「十分行けるwww 」のレベルが良く分からないので試しにどっかにupしてみないか?

439/名無しさん[1-30].jpg2018/06/09(土) 22:43:40.87ID:0FX3/m+k0
>>438
そういうのやめろ
同じ轍を踏むつもりか?

440/名無しさん[1-30].jpg2018/06/10(日) 00:31:27.51ID:DBV3Xtt30
知人だとピカソのキュビズムっぽい画像ですら抜ける

441/名無しさん[1-30].jpg2018/06/10(日) 06:25:40.76ID:QsmUOv/70
誰と誰の組み合わせでいけるとか書くのもヤバイのかね?

442/名無しさん[1-30].jpg2018/06/10(日) 06:31:03.68ID:L0en6CVh0
>>441
クローリングしただけで逮捕される国ですからね。
オープンな場では技術情報の交換だけにしておき、それ以上のことはdiscord等のクローズドな場で行うのが良いと思います。

443/名無しさん[1-30].jpg2018/06/10(日) 07:52:51.54ID:Rv2X724e0
>>437
枚数が少ないと表情が硬くいのしかできなくないか?

444/名無しさん[1-30].jpg2018/06/10(日) 11:47:39.42ID:5FR2ebPn0
すいません

modelデータ使いまわしてると3分ぐらいでLOSSABともに0.015切るんですがこれでも数時間回したほうがクオリティあがるのでしょうか

445/名無しさん[1-30].jpg2018/06/10(日) 12:25:22.61ID:UiDeFezF0
>>441
それは全然問題無いと思うし、できればその際のパラメータも上げていただけると
本当に勉強になってありがたい
できれば作例も欲しいと以前思ってたけど、クレクレと区別がつかないのはよくな
いし

446/名無しさん[1-30].jpg2018/06/10(日) 12:26:05.38ID:D45r4fYU0
>>444
loss値が全てじゃないからな。
短時間で値下がっても、前の影響残ってること多い。どこまで気にするかだと思う。
スワップしてお前が納得行くなら、それでいいんじゃね?

447/名無しさん[1-30].jpg2018/06/10(日) 12:52:06.30ID:D45r4fYU0
>>445
お前がアップすれば、誰もクレクレとは呼ばないぞ。
上手い奴の作例初めてみた時は、感動もんだったし、色々勉強なったのは確かだ。

448/名無しさん[1-30].jpg2018/06/10(日) 15:55:27.85ID:Rv2X724e0
>>444
自分はモデル使いまわしてすぐにloss値が低くなっても
さらにしばらく回してる。swapして気づくと思うけど
A側にこれまで学習してなかった微妙な角度があったときに
画像が乱れるんだけど、再学習するとだんだんこれが良く
なっていく。ついでにMODELの学習強化されるのでさらに
汎用性が高くなって行く。どのぐらいまでやるかというと、
右側のプレビューがだいたいAの人に見えるぐらいに。
>>446が言ってるようにloss値は目安でしかないので。

449/名無しさん[1-30].jpg2018/06/10(日) 16:47:58.09ID:UiDeFezF0
>>447
というか、気兼ねなく上げるためにリファレンスになる素材があればいいのかも
しれんが、実際それはオープンな場では無理だろうし
とりあえず俺はカードのアップグレードが先決なのがまた痛い

450/名無しさん[1-30].jpg2018/06/10(日) 20:57:42.20ID:wZNaUfG20
初作品作るべく、半日かけてA用動画編集したわ
折角なのでストレートなやつじゃなく、アブノーマルなAVを選し
上手くスワップ出来そうな部分だけを使ってダイジェスト版を作成

とりあえず今trainに入った
完成が楽しみ

残念ながらところどころ顔の抽出が出来てないフレームがあるんだが
個人的にはむしろその方が背徳感を味わえる

なお、フェラシーンもある
編集前の動画はモザ有り
予備試験を踏まえると、モザありの場合、フェラシーンも脳で補完できる
兎に角完成が楽しみ

451/名無しさん[1-30].jpg2018/06/10(日) 21:22:54.92ID:Rv2X724e0
>>450
いきなりハードル高い素材使ってない?とりあえず最初の頃は
カメラ目線で動きが少ないのを試したほうがいいと思うんだが、
結果の感想を聞かせてくれ。

ところで、
>残念ながらところどころ顔の抽出が出来てないフレームがあるんだが
>個人的にはむしろその方が背徳感を味わえる

これってどういうこと?何かコマ落ちしたり変換されないことに特殊な
楽しみが得られるんだったらその意味を教えてもらえると有難い。

452/名無しさん[1-30].jpg2018/06/10(日) 21:28:17.81ID:wZNaUfG20
ここ数日試した経験談
ここの意見を参考に、Bが同一の場合はmodel一式を使いまわしてる
確かに、学習の高率が飛躍的に上がる

Bは色々な画角を得るため、複数の動画から顔を抽出している
複数の動画から顔を抽出する場合、ちゃんとalignmentファイルをマージするのが理想的だとは思うが
すごくちゃんとしようと思うと、alignmentファイルをマージしたりする作業も必要だとは思うが
単にA2Bの動画を作成する場合、Bのalignmentファイルは使わないので、どうでもいい

豊富な画角のB同士、つまりBとBで予めセルフ学習しておくと
別のAに横顔が含まれていても、角度を誤認することな素早くく学習が進む印象
新規に学習すると、横顔・正面顔の両方で誤差を最小化しようとして
ピカソとして学習が進んでしまう印象がある

453/名無しさん[1-30].jpg2018/06/10(日) 21:46:41.79ID:wZNaUfG20
実際に試した人なら何を言ってるか分かると思う
【AIコラ】fakeapp その2【革命】 [無断転載禁止]©bbspink.com	YouTube動画>7本 ->画像>56枚

これな、ピカソの絵
横顔且つ正面顔
もっともシンプルなキュビズムの一例

実際に機械学習進めると、このパターンの謝った解に陥ってしまうことが多々ある
豊富なB同士で学習しておくと、これを防げる印象がある

454/名無しさん[1-30].jpg2018/06/10(日) 22:08:54.27ID:wZNaUfG20
ピカソがキュビズムでなお且つ写実的だった時代の作品を知ると
彼の天才ぶり・彼が目指した世界が垣間見えると思う

ピカソのあの糞な絵は、彼のその時代を踏まえて、更に一歩先のデフォルメに進んだ結果なんだよ

455/名無しさん[1-30].jpg2018/06/10(日) 22:17:02.15ID:Rv2X724e0
いやこの場でピカソはどうでもいいから。

456/名無しさん[1-30].jpg2018/06/11(月) 01:40:57.69ID:HV1JJwYUa
>>431
Pythonを勉強しつつ読んでます。
オプションを使えば人物の抽出確立や顔マスクの精度あげれそうだけど
実際のオプション使った結果とか調べるの大変そう。
openfaceswapオプションのベストチューニング(と解説)みたいなの
作らなきゃいかんのかなあ。

457/名無しさん[1-30].jpg2018/06/11(月) 02:31:10.01ID:MXnVGmgI0
Windows7でopen動かせてる人いる?

458/名無しさん[1-30].jpg2018/06/11(月) 05:35:21.09ID:Py+Y3+VA0
友達の女の子に子供が生まれた
その子は西島秀俊が好きなので
「こんにちは、西島秀俊です」とか言って祝辞を述べる自撮り動画を撮った
自分を西島秀俊にfakeして祝辞を述べるネタ動画を作ろうとしたわけ

俺は骨格・輪郭レベルで西島秀俊とはかけ離れてるブサメンで
全くダメだったわorz

459/名無しさん[1-30].jpg2018/06/11(月) 06:05:34.30ID:FHQxFPFI0
画像数が少ない場合は、CNNだしData Augmentation使えばうまくいきそうですね。

460/名無しさん[1-30].jpg2018/06/11(月) 06:07:14.87ID:aQtfjVQ50
>>458
すごいアイディアだ
意外に顔認識ではなくABの撮影環境の差かもしれないから、自撮りの際の
背景やライティングに気をつけたらうまくいくかもしれん
これこそ自分の方の顔にモザでも入れて作例投下すればアドバイスもらえると思う

461/名無しさん[1-30].jpg2018/06/11(月) 08:09:48.43ID:Tkx89oGn0
test

462/名無しさん[1-30].jpg2018/06/11(月) 15:34:56.47ID:EOcmRAYz0
カメラ目線メインのBを用意できても通常のAVはあまりカメラ目線のシーン無くて斜めが多いからネタ探し大変
あと作り出してから気づいたんだけど、AVは顔を上?に向けたのけぞりも多く、更にカメラは下方向からあおるように撮るから尚更Bに用意しにくいカットが多い

下から鼻の穴丸見えであおる一般グラビアとかそうそう無いもんなあ・・
みんなは諦めてバッサリカット?

463/名無しさん[1-30].jpg2018/06/11(月) 15:50:07.61ID:bY2bLF/X0
極端なあおりはそもそも顔認識してくれないんだよな
あと激しく動いてるのも顔認識がちらつく

464/名無しさん[1-30].jpg2018/06/11(月) 16:25:40.65ID:PZCrQmkmp
鼻の穴なんて、どうせ見ている人が識別出来んのだから、適当に似てるAV嬢からの画像差し込んでおけばいい。
元々輪郭とかA依存なんだから純正なコピー目指さず、いかに本人っぽくて自然な映像目指すかだと思ってる。

465/名無しさん[1-30].jpg2018/06/11(月) 21:18:53.04ID:Vso7SrrS0
BにないシーンはAのをおいとくのもひとつの解決策だよん。

466/名無しさん[1-30].jpg2018/06/11(月) 22:22:30.44ID:Vso7SrrS0
穴なめと飲むのは成功することもある。

467/名無しさん[1-30].jpg2018/06/11(月) 22:56:54.02ID:kARvBoc80
初作品作った
fakey.ltd で公開されてる一部の良作を見て
数日前に始めたばかりの俺でも
OpenFaceSwapで1日学習するだけで
あのサイトの大半の動画を上回る作品が作れてしまう
実際やってみると、あのサイトの動画の大半は
スワップさせる人物の選定に対する努力が足りない印象

機械学習時間そのものより
学習用素材の調達
輪郭やパーツの配置がある程度近い人物の選定
実際に行けそうかどうかを見極める試行錯誤とかの方に時間がかかった
慣れて来ればこれも経験で推測できるようになる気がするけど

468/名無しさん[1-30].jpg2018/06/11(月) 22:57:10.79ID:kARvBoc80
これが学校や職場の高嶺の花な娘だったとしたら抜きまくれるな
危険を冒して隠しカメラを更衣室に仕掛ける必要ない
眼鏡型カメラ買えばいいんだよ

469/名無しさん[1-30].jpg2018/06/11(月) 23:02:00.14ID:Vso7SrrS0
>>468
自分の作ったコラってな、そんなに抜けないんだぜ。

あそこのサイトのは低クオリティにしといて、寄付してくれたら高クオリティやるよスタイルなんじゃ?

470/名無しさん[1-30].jpg2018/06/11(月) 23:03:04.96ID:kARvBoc80
今度はVR動画でどのくらい行けるか試してレポートしようと思います

471/名無しさん[1-30].jpg2018/06/11(月) 23:24:36.68ID:kARvBoc80
>>469
俺が金目当てでやるなら
多くのAV女優が紹介されてるサイトからA候補の画像と名前をかき集めて
特定のBに対する類似度を判定して優良なA候補となる女優をサジェストする補助プログラム作るわ

顔の類似度判定するライブラリは普通に存在するので
結構簡単に作れるはず

472/名無しさん[1-30].jpg2018/06/11(月) 23:33:09.80ID:WOho02Zp0
>>471
http://face.okonomi-search.com/
これのことか?

473/名無しさん[1-30].jpg2018/06/11(月) 23:42:30.36ID:kARvBoc80
>>472
クラウドファンディングでやってみてもいいかなとか思ったんだが
もうあるんかいw

474/名無しさん[1-30].jpg2018/06/11(月) 23:47:39.01ID:WOho02Zp0
>>469
他人の作った下手な奴より、自分の作った下手な奴の方が抜ける。
でも、自分の作った上手い奴より他人の作った上手い奴の方が抜ける。
不思議なもんだ。

475/名無しさん[1-30].jpg2018/06/11(月) 23:56:44.55ID:7wTLHJHH0
>>472
そのサイトdeepfakes的には微妙なんだよね
>>473
輪郭の位置とパーツの位置で類似度判定するのがあったら欲しいな…
自分でやろうと思って勉強ははじめたんだけど

476/名無しさん[1-30].jpg2018/06/12(火) 00:30:30.45ID:vatT08ah0
>>470
と思ったけど、ほんのちょっと考えても数学的に俺には難しいので断念するわ
1つのシーンを更生する2つの画像を各々別々にスワップしたものが
1つのシーンとして矛盾なく機能するのか興味があったんだが
球面座標は俺が気軽に試せる範囲じゃないorz

477/名無しさん[1-30].jpg2018/06/12(火) 00:53:47.11ID:zv4fvucc0
今なら「謝礼出ますので自主制作3DCG用のモデルとして顔をぐるっと撮らせてくだだい」て声掛けできそうだけど流行ったら事案になってしまうから神様もう少しだけ

478/名無しさん[1-30].jpg2018/06/12(火) 01:12:13.06ID:B7XRItSc0
>>477
街中で見かける愛い娘なら、そんなことしなくても
周囲を歩き回って色々な角度から盗撮すればok

スカートの中撮るわけじゃないので
待ち合わせでもしてる感じで
周囲をウロウロしつつ盗撮すればいいと思う

勿論俺はそんなことやったことないけどな

479/名無しさん[1-30].jpg2018/06/12(火) 01:39:12.35ID:B7XRItSc0
>>467
ID変わったけど、俺ね

swap用A動画を頑張って作るか
それともとりあえずswapしてから優良シーンだけ抜き出して編集するか
作品を作る上で、ベテランの皆さんはどっち推奨ですか?

実際やってみると、顔画像抽出とかの時間的コストの方がネックですよね
機械学習そのものは、寝てる間とか仕事の間とかに進むので
人間の労力はあんまり必要としない

480/名無しさん[1-30].jpg2018/06/12(火) 01:59:07.07ID:zv4fvucc0
ベテラン上級者勢には遠く及ばないけど、
例えば10秒程度のエロgifでさえ?だからこそ?
グッと来るものがあるので、知り合いをネタにする場合はそっちメインでやってます
もちろん抜き出しが先

グラビア動画をBに用意できる場合はAもかなりの長時間(最長30分ぐらい)で出来上がりの良いとこを探す感じ
こちらは実験だし結果出るまで時間かかるのでまだどちらが良いとも言えない感じ
同じ期間に撮られたはずのグラビア動画と写真集を混ぜてるのに「これ誰?」ってなっちゃうし(まだBは0.02切ったばかり)

481/名無しさん[1-30].jpg2018/06/12(火) 05:48:01.02ID:Z0DOZ3Lk0
ツイッターだけで情報収集してたけどこんなスレあったんだな
今日から参加さしてもらうわ
みんなどっかでアップとかしてんのけ?
会員限定とかフレ限定で挙げれる日本人fakeサイトは見っけたけども

482/名無しさん[1-30].jpg2018/06/12(火) 06:52:58.78ID:cWk6xd7IH

483/名無しさん[1-30].jpg2018/06/12(火) 10:05:47.61ID:qRu7mLx80
>>481
その見つけたサイトに現状投稿してるのはサイト作者1人だけだから騙されちゃいかんぞ

484/名無しさん[1-30].jpg2018/06/12(火) 10:18:05.82ID:uRgTqksE0
怖すぎてアップなんか出来ない
オープンプロキシを設置して通信内容を傍受(やり取りされる画像を傍受して遊んでたw)とか
TOR出口ノードやったりとか、色々遊んだが
そういうことをすると、FBIだのホワイトハッカーだのからメールが届くことがあるw
FBIは偽物っぽかったが、誰かしらが、そういうものを監視しているのは間違いない

会員限定なんて、UP主が自分であることの証明に外ならず、俺は使う気がしない
むしろTOR使わないとUPできない匿名サイトとかの方が安心できるわ

比較的新しいジャンルだけに、見せしめ目的で捜査されることが十分にありうると俺は思っている

485/名無しさん[1-30].jpg2018/06/12(火) 11:04:59.89ID:uRgTqksE0
仮に会員限定サイトで、自分が複数の動画UPしたとするでしょ
何かが端緒になって自分の行為がバレた場合
会員限定だからこそ、その複数の動画をUPしたのが自分であると強く推認される

逆にUP主にログインを求めない匿名サイトだと
何かがバレた場合であっても
自分がUPした他の動画について、自分がUPしたと証明することは難しいわけね

捜査する方の立場になって考えてみれば分かりやすいかも
単発IDに狙いを絞って調査するか?
連投厨を狙うよね

ネットの安全性は、個人の絞り込みではなく、拡散の方なのよ

486/名無しさん[1-30].jpg2018/06/12(火) 12:09:27.15ID:DMy4CwfaM
>>479
結局機会はこっちの考えをくみ取れないから、下手な人は下手なままだと思うよ。
フォトショ持たせても使う人次第なのとそんなに変わらんかと。

487/名無しさん[1-30].jpg2018/06/12(火) 14:09:06.36ID:fX5QgSEP0
>>485
いや拡散して社会問題になる方がよっぽど問題だわ。

488/名無しさん[1-30].jpg2018/06/12(火) 17:28:38.95ID:GOkiQu330
fakey.ltdはサイト運営者かつ動画製作者かつアップロード者なので、どの角度から見てもアウトなんですよね。
どれか1つなら逮捕されないかもしれませんが(どこに責任があるかわかりにくいので)、さすがに3つ全部やったら逮捕されるのは時間の問題だと思います。

489/名無しさん[1-30].jpg2018/06/12(火) 18:40:18.33ID:Z0DOZ3Lk0
分かってたけどやっぱり作品見せあって楽しむことはもうできそうにないよなリスクがありすぎるし
出来るとしたら素材とmodelの共有で楽しむくらいか

そういえば昨日このスレで知ったmodelの流用で学習早くなるってのを見て早速試したけど、0からより断然速いね
たぶん1万枚くらい学習したAと1000枚くらい学習の別人B、どっちも0.013くらいまでやってたmodel流用してみた
開始こそ0.06とかだけどそこから進むのが早かった
0.015くらいまで学習させてみたけど結果全く違和感なかったわ
これは良いな

490/名無しさん[1-30].jpg2018/06/12(火) 20:49:21.11ID:vtgMCxlJ0
これってQuadro P1000で動きますか?

491/名無しさん[1-30].jpg2018/06/12(火) 23:08:29.98ID:iSqYDlqw0
動きますん
1050相当?

492/名無しさん[1-30].jpg2018/06/12(火) 23:36:51.30ID:hbLTFcB60
なんで画像がこんなに氾濫しているのに、動画は駄目なん?
画像もそんなに沢山捕まってるん?

493/名無しさん[1-30].jpg2018/06/13(水) 00:25:06.61ID:umLzlWeT0
deepfakesは海外では既に問題になってるからね

494/名無しさん[1-30].jpg2018/06/13(水) 07:02:46.10ID:rjHyGVcar
画像も動画も罪状は一緒だよw
何となく動画の方が重い気がするっていう思い込み

495/名無しさん[1-30].jpg2018/06/13(水) 07:15:13.26ID:8SWNIHOZa
海外のサイトにアップしてよ

496/名無しさん[1-30].jpg2018/06/13(水) 08:45:00.58ID:pflu6kXx0
既に海外の日本人モデル専用サイトあるだろ

497/名無しさん[1-30].jpg2018/06/13(水) 09:58:34.56ID:umLzlWeT0
別に動画あげてない人が画像はあげてるってことじゃないでしょ
気軽にアップしちゃうような人のところまで技術というか作り方だったりが降りてきてないってこと

498/名無しさん[1-30].jpg2018/06/13(水) 12:26:46.44ID:HHtkWs5b0
>>492 >>494

日本ではアイコラの公開でまぁまぁ逮捕者出てますよ。
おっしゃる通り、画像も動画も違法性は同程度でしょう。
だから動画を公開したら逮捕される可能性があります。
思い込みではありません。

あと、最近になって神奈川県警がcoinhiveの利用者を逮捕し始めました。
海外では考えられないことです。
日本の場合、テクノロジーに対するリテラシーが低すぎて、グレーの領域でも簡単に逮捕されます。

499/名無しさん[1-30].jpg2018/06/13(水) 13:19:52.16ID:q5ulCjvPp
まあまあって、具体的にはどのくらい?
あと名誉毀損って親告罪だよね?

500/名無しさん[1-30].jpg2018/06/13(水) 13:23:54.56ID:HHtkWs5b0
>>499
ググってください。

501/名無しさん[1-30].jpg2018/06/13(水) 13:58:44.95ID:q5ulCjvPp
ググっても、一般の製作者だと新山千春の件くらいしか見つからんかつたので、教えて欲しいのだが。

502/名無しさん[1-30].jpg2018/06/13(水) 14:27:03.23ID:HHtkWs5b0
>>501
それです。簡易的な説明はこちらを参照してください -> https://www.bengo4.com/internet/1071/b_260092/

503/名無しさん[1-30].jpg2018/06/13(水) 14:44:28.58ID:E5PVDdTAa
日本は前例が出来てしまうと簡単に逮捕されるからなあ
逮捕までいかなくても家に警察来てパソコン持ってかれて書類送検までは普通にある

504/名無しさん[1-30].jpg2018/06/13(水) 14:45:18.97ID:yBS6ChMma
新山千春の逮捕者は
有名な人だったからな

505/名無しさん[1-30].jpg2018/06/14(木) 10:28:24.88ID:IpAj6KTGp
結局この1件しか逮捕は無いの?
しかも起訴されたのはサイト管理者だけってことだよね。

506/名無しさん[1-30].jpg2018/06/14(木) 12:24:49.65ID:5SgArEJma
>>505
1件だけだから自分も平気だろうと安心したいわけ?

507/名無しさん[1-30].jpg2018/06/14(木) 12:35:43.68ID:D5ctWm6W0
>>505
この件で逮捕されたのは一人じゃないですよ。アップロード者複数人も逮捕されています。
あとこの事件は逮捕者が有名な人(国交省幹部)だったので報道されましたが、報道されない事件もあるでしょう。

506の方が言うように、あとは考え方の問題です。
違法性があるならやめておこうと考えるか、
一件しか報道がないから逮捕される可能性は少ないと考えて、動画を公開するか。

違法行為はやめるべきです。

508/名無しさん[1-30].jpg2018/06/14(木) 17:21:56.55ID:rfwo/qwT0
金儲けのために公開したり代理作成したいやつがいるかもしれんが、
取引相手になる中学程度の英語文書も読めずグラボの数万程度の端金すら用意できないノータリンが何しでかすか考えてからやろうな。

俺はなんかもう飽きてしまったよ。
追求するほどオナペから芸術作品に変わってってつかれるわ。

技術論の話がないから路線戻すけど、画像のX反転とかはOFSがたしかに自動でやるけど、積んでるグラボが貧弱なら自動で反転した写真を学習するまでに時間が掛かるから、手動で反転画像追加したり、横顔だけ集めたフォルダで一時間くらい回すと良くなる。
横顔だけで半日とか回すと過学習でおかしくなったりするから、時間はお好みで加減だな。

509/名無しさん[1-30].jpg2018/06/14(木) 22:59:54.73ID:byEr731V0
逮捕されるわけないから自分がアップするっていうなら勝手にやればってことだけど
誰かにアップしてくれっていうのはアホちゃう?って話

510/名無しさん[1-30].jpg2018/06/14(木) 23:17:02.91ID:O23pqyKha
椋丸とか好きだったから
捕まった時ショックだった

511/名無しさん[1-30].jpg2018/06/15(金) 00:38:44.48ID:avvIsd0g0
Bは兎に角色々な画角を含んだ多くの画像を用意しますよね
A動画に含まれない画角も含め、豊富な画角を用意しますよね

一方、Aは、最終出力として欲しい画像から抽出した顔画像のみですよね?
例えば正面顔のみ、実際のAをかなり捨象したAのみ
どうも、それが違和感を生んでいる気がする

というのは、とりあえず正面顔のみのAなら高品質な動画作れるかと思って試してみてるが
どうもむしろ逆な印象があるんだよ

自分で試せよって気もしますが
Aの学習用顔画像として、最終的な出力動画から抽出した顔画像以外もつっこんだ方が良いですか?
それともノイズになりますか?

酔ってるから変な文章になってるかも

512/名無しさん[1-30].jpg2018/06/15(金) 01:59:18.10ID:SVGbJLNo0
>>511
経験談でしかなくて申し訳ないけど、Aにもある程度パターン入ってたほうがいいと思うよ
真正面の変換するのに真横向いた画像が必要かは分かんないけど
Aに全く同じ画像だけ複数枚入れてやったことあるけどイマイチ綺麗に作れなかった

513/名無しさん[1-30].jpg2018/06/15(金) 09:58:53.81ID:XtUIyieAp
経験則だが、Aの画角が全てBにあるような時は、Aは元動画だけで充分なことが多い。そうで無い時は、AB両方に入ってる画角から特徴分析して、予測することになるので、Aにも色々あった方がいい。

そもそもB側に揃えられない画角ばかりだと、本人っぽくならんよ。だって普段見たことない画角なんだろう?

514/名無しさん[1-30].jpg2018/06/15(金) 11:49:49.69ID:QSQSn+pg0
最初の方はそうだけどモデルデータ使いまわしてるとそういうこと考えなくてもよくならね?

515/名無しさん[1-30].jpg2018/06/15(金) 21:53:07.06ID:xj3xQbMr0
CUDAインストール失敗しまくるんだけどなんでだろうセーフモードでも駄目だからソフトが邪魔してるわけでもなさそうだし…

516/名無しさん[1-30].jpg2018/06/15(金) 22:30:19.73ID:QSQSn+pg0
>>515
>>170は試した?

517/名無しさん[1-30].jpg2018/06/16(土) 00:27:21.01ID:AIpHqRjm0
>>516
ありがとう!インストールできた!

518/名無しさん[1-30].jpg2018/06/16(土) 11:48:56.69ID:MOrImKWYr
Openfaceswapでmodel処理しようとすると出るエラー
「ResourceExhaustedError」ってなにが原因なんだろう
前はlowmemoryにしてBatchを1にしたら動いたけど今回はそれですら動かない

ResourceExhaustedError (see above for traceback): OOM when allocating tensor with shape[32768,512] and type float on /job:localhost/replica:0/task:0/device:GPU:0 by allocator GPU_0_bfc
[[Node: training_1/Adam/mul_32 = Mul[T=DT_FLOAT, _device="/job:localhost/replica:0/task:0/device:GPU:0"](training_1/Adam/sub_2, training_1/Adam/gradients/model_1/dense_1/MatMul_grad/MatMul_1)]]
Hint: If you want to see a list of allocated tensors when OOM happens, add report_tensor_allocations_upon_oom to RunOptions for current allocation info.

519/名無しさん[1-30].jpg2018/06/16(土) 12:10:16.77ID:S/ELcPlN0
メモリ不足。
コード改造して、ノード減らせば動く。
金あるならグラボ買え。

520/名無しさん[1-30].jpg2018/06/16(土) 15:07:41.79ID:72TrQMYaM
>>519
グラボメモリ3GBじゃ厳しいかあ 今買うなら1060じゃ中途半端だよね 値下がりしなそうだし1070ti狙おうかなあ

521/名無しさん[1-30].jpg2018/06/16(土) 22:11:02.77ID:uG3WNvByM
1060ポチってしまったんですが中途半端ですかね...

522/名無しさん[1-30].jpg2018/06/16(土) 22:56:09.95ID:7TOvx3ol0
個人的にはハイパワーのグラボ買うより、グラボ複数枚刺したいな
品質は良い素材同士でtrain回せばある程度上がるのは分かった

問題は、その高品質のA,Bの組み合わせだのを見つける事前作業
俺自身はgpu一枚しか刺さらないから知らないけど
複数枚刺してれば一枚でtrain回しつつ
もう一枚で別の作業出来るんでしょ?

523/名無しさん[1-30].jpg2018/06/16(土) 23:36:57.33ID:S/ELcPlN0
>521
まぁ、originalが最低限動くから、そういう意味ではいいのでは?
HighResとかまでいけるか知らないけど。
そもそもHighResの話題をあまり聞かないけど、試した人います?

524/名無しさん[1-30].jpg2018/06/17(日) 07:18:18.34ID:ldMU2Icv0
今更だけどディスク容量足りなくなってHDDでやったら激重
やっぱSSDじゃないとダメだわ
如実にIO性能の差が出る

525/名無しさん[1-30].jpg2018/06/17(日) 09:00:39.59ID:uAfveX580
openfaceswapやっとインストールできて、使ってみたんだけど。
グラボ:GTX760 2G
lowMem batc:32
トレーニングでエラーでず回せるんだけど、
タスクマネージャー見ると、グラボの使用率が0%。
何か間違ってるのかしら。

fakeappだと、ちゃんと使う。

526/名無しさん[1-30].jpg2018/06/17(日) 09:04:47.21ID:FbEBspl60
>>524
なにをどうやったら容量足りないなんて事態になるんだ

527/名無しさん[1-30].jpg2018/06/17(日) 15:24:39.43ID:azP4Uq0S0
知り合いで作成してるひといる?
どうやってますか?動画とかほとんどなさそうだけど

528/名無しさん[1-30].jpg2018/06/18(月) 08:28:44.82ID:vKzVkHwGM
>>521
1070ti買ったほうが、そして更に1080買ったほうがとなるね。
現状1080ti除けばベストなわけだし。

529/名無しさん[1-30].jpg2018/06/18(月) 22:48:14.25ID:dgFO35vD0
openfaceswap、Model作成までは出来るけどその後のSWAPが出来ない
【AIコラ】fakeapp その2【革命】 [無断転載禁止]©bbspink.com	YouTube動画>7本 ->画像>56枚
Failed to convert imageってエラー出てmergeフォルダも空…
SWAPはIMAGEAとIMAGEBのフォルダにalign前の画像でいいんだよね?
GTX1060-6GBでやってる

530/名無しさん[1-30].jpg2018/06/18(月) 23:00:12.61ID:nlLOKL4x0
>>529
imgAのフォルダにalignment.jsonファイルが入ってないとか?
imgBはSWAPのとき必要ない

531/名無しさん[1-30].jpg2018/06/18(月) 23:43:13.99ID:snSt5UTD0
>>529
faceswapがやる作業は
extractとtrainとconvertな
swapできないとか訳わからんこと書かずに正確に書け

532/名無しさん[1-30].jpg2018/06/18(月) 23:55:54.46ID:n3iJ83Fs0
>>531
何にいらついてるんだが知らんがええんじゃないの?OpenFaceSwapだし。
Image_A工程、Face_A工程、...、Model工程、Swap工程、Movie工程
何か間が抜けてるけど伝わるし。

533/名無しさん[1-30].jpg2018/06/19(火) 00:07:44.57ID:sNWnNtI50
openfaceswapだとswapsボタンだから全然間違ってないな

534/名無しさん[1-30].jpg2018/06/19(火) 00:20:07.14ID:KJFWEMv40
>>530
alignment.json入ってなかった ありがとう
これalignする時に作成されるのか データだけ移動しちゃったからだめだった

535/名無しさん[1-30].jpg2018/06/19(火) 01:16:02.34ID:tuIvy+Q00
髪が顔にかってても、十分にtrainすれば結構行ける印象
流石に、輪郭と紛らわしい髪は誤認して可笑しな結果になるけど

問題は、髪がかかってる画像の顔をextractできない方だわ
extract出来れば恐らく上手くtrain,swapできるのに
extract出来ないからそのフレームが未変換で残ってしまう。。。

536/名無しさん[1-30].jpg2018/06/19(火) 02:00:17.11ID:6YAgB+kA0
肌の色合わせはどうすればいいんだ?

537/名無しさん[1-30].jpg2018/06/19(火) 02:19:12.11ID:sNWnNtI50
シームレス使わないって話なら
B側に光源の違いとかで肌の色が違ってる素材いろいろ入れておけばある程度勝手に合わせてくれる
もしくは最初からAのほうの色を合わせておくかかな

538/名無しさん[1-30].jpg2018/06/19(火) 07:20:43.24ID:L5N3PlRWr
たまにmodel使い回しって聞くけどどういうこと?
AかBが同じならファイル使い回してswapできるの?

539/名無しさん[1-30].jpg2018/06/19(火) 09:31:57.41ID:j5VqJQNPp
AB違っててもいいから、同じモデルをそのまま流用してtrain 。
時間短縮と画質向上になる。
B違う時は、非推奨って意見もある。

540/名無しさん[1-30].jpg2018/06/19(火) 12:32:42.00ID:xg8RW6z8d
>>535
https://github.com/iperov/DeepFaceLab
使えば解決するかも

541/名無しさん[1-30].jpg2018/06/19(火) 21:09:43.15ID:KJFWEMv40
これって元動画の画質悪い方がリアルっぽくなる?
1080pの動画とか使うとなんか貼り付けられた感が出る…みんなどんくらいの画質の動画をAにしてる?

542/名無しさん[1-30].jpg2018/06/19(火) 21:18:54.28ID:sNWnNtI50
>>541
抽出された顔画像は256x256で保存されてそれを学習に使うからAの元動画の顔がそれより大きければ大きいほどボケるよ

543/名無しさん[1-30].jpg2018/06/19(火) 22:24:56.34ID:3fcTHneOa
>>540
これopendeepfaceswapの手動抽出と処理方法同じだよね?
モデルの再抽出、再トレーニング時間を許容できれば結構いいかもね
OpenFaceSwapと比べると体感でloss値下がるの遅いけど

544/名無しさん[1-30].jpg2018/06/19(火) 22:58:44.02ID:detA1rFL0
>>543
OpenDeepFaceSwapが名前変えたやつなのです。
手動で抽出できるぶんdeepfakes/faceswapより認識します。
あと、モデルタイプをH128より上にするとdeepfakes/faceswapより綺麗に変換するようです。
https://github.com/iperov/DeepFaceLab/blob/master/README.md

545/名無しさん[1-30].jpg2018/06/19(火) 23:01:59.46ID:detA1rFL0
ところでopenfaceswapってバージョン0.9の後って出てる?

546/名無しさん[1-30].jpg2018/06/20(水) 00:13:44.34ID:jnVVbD8s0
>>541 , >>542
顔画像は256x256で保存されているが、
学習しているのは主に160x160の範囲。
変換の画像にいたっては64x64しかない。
720pで引きの映像くらいが限界。
HighResとかOpenDeepFaceSwapにすると128になるっぽい。

547/名無しさん[1-30].jpg2018/06/20(水) 01:26:34.94ID:fmKbE1VS0
>>546
その種の技術情報って何処かに文書がありますか?
それともソース読んでます?

548/名無しさん[1-30].jpg2018/06/20(水) 01:40:01.89ID:bSuxikKkr
openfaceswapはレイヤーは変えれない?

549/名無しさん[1-30].jpg2018/06/20(水) 07:42:20.32ID:3ITbtyWBH
1060買うより1050tiを二台買った方が安いんですが
この場合どっちのほうが性能出るんでしょうか

550/名無しさん[1-30].jpg2018/06/20(水) 08:29:02.21ID:NU4eQAkBp
>>547
ソース読んで、簡単なところを
自分でちょこちょこいじって遊んでる。
オープンに技術情報語ってるとこって、
ほとんど見つからない。

551/名無しさん[1-30].jpg2018/06/20(水) 08:43:32.43ID:dZgwc6oDa
英語使えりゃいくらでもありまっせ

552/名無しさん[1-30].jpg2018/06/20(水) 11:10:38.96ID:f0t81mmhr
>>11
CPU何世代前だよ
でもメモリ24GB(おいら16)は羨ましい

動画編集楽やろな
いっぱいエロいの作ってね

553/名無しさん[1-30].jpg2018/06/20(水) 12:39:43.95ID:fykpl7us0
組み合わせたら最高


NVIDIA、30fpsの動画から高品質スローモーションが作り出せるAI技術
https://pc.watch.impress.co.jp/docs/news/1128343.html


554/名無しさん[1-30].jpg2018/06/20(水) 17:58:50.51ID:39tgZeCE0
deepfakes/faceswapのソースコード読んだのですが、Originalはオートエンコーダー使ってますよね。
でもVAE(Variational AutoEncoder)とは違うようなんですよね(当然DCGANとも違う)。
この実装の元になった論文知っている方いますか?探したんですが見つからなくて...

555/名無しさん[1-30].jpg2018/06/21(木) 01:21:53.94ID:0D5sueOX0
ピンクで論文探す奴がいるとは。
外人曰くWhile the author provided the original code, they left several things unclear such as: what license is the code shared under, and what academic paper, if any, inspired his neural network architecture?

556/名無しさん[1-30].jpg2018/06/21(木) 15:37:31.20ID:kGOLCgp+0
モデルデータAB違いでも使いまわしてるけどどうなんだろうなあ
いかんせん比較ができないからBだけ流用の方が良いとかそういう違いが分からん

557/名無しさん[1-30].jpg2018/06/22(金) 16:47:56.41ID:4JexpXvx0
OFSしか使ったことなかったけど、
>>544
も使ってみた。

どちらも顔取得時間が暇でたまらん。
この時間にためになることができたら、こんなオナニーしなくて済むのだろうな。
うっ、、、

558/名無しさん[1-30].jpg2018/06/22(金) 16:54:45.86ID:4JexpXvx0
追記だけど導入に関しては1番簡単だった。
使い勝手がわかる人ならロシア語読めなくても翻訳でok。
torrentリンクあるからDLしてzip解答すればできる。

cudaとかそのままzipの中に詰め込んでるみたいだからそのへんは著作権とかやばそうなキガス。
わざわざOFSとかが、ここからDLするんやでーってやってるんだから本来は駄目なんだろう。

顔の取得をfulfpsでやると6分でも1万枚近く取得されて、それを処理しようとするとそれだけで一時間コース。
ただ、顔は手動選択できるので便利。
ソートツールもたくさんあるので便利。

559/名無しさん[1-30].jpg2018/06/22(金) 17:06:33.59ID:eIqAT0wJ0
俺もDeepFaceLab入れてみたけど、GTX1070でもbatch sizeが32で精一杯なんだよね。
これ以上上げると回らない。
openfaceswapだと128で回してたんだけど。
手動で入れたから何か間違ってるのかな?
他にDeepFaceLab使ってる人はbatch sizeどのくらいまで行ける?

560/名無しさん[1-30].jpg2018/06/22(金) 18:08:51.34ID:4JexpXvx0
>>559
いまバッチの変え方がわかったからやってみたけど、ofsなら32で回るけどこっちなら回らないね。
ちなみに1050ti。

だからプログラムがメモリを食うんじゃないかな。
掲示板の人もバッチかなり小さくしてそうだし?

561/名無しさん[1-30].jpg2018/06/22(金) 18:12:32.24ID:4JexpXvx0
1080でもメモリがネックで多分回らないから、1080ti用意しないとバッチ128で回せないんじゃないかなー。

ofsでそこそこで満足してる人。
4gb以下のメモリの人。

この2つは入れる意味ないかな。

562/名無しさん[1-30].jpg2018/06/22(金) 20:01:38.54ID:2dXB2GW1a
1080tiでやってみたけど明らかにOFSの方が学習も早くて顔も変換も自然な感じだなあ
というかDeepFaceLabはよく似た別人って感じだ
個人的には手動抽出にこだわる人でなければあまりお勧めできない

563/名無しさん[1-30].jpg2018/06/22(金) 20:31:45.32ID:4JexpXvx0
>>562
だよねー。
なんか素材不足で回しまくったような仕上がりになる。

元ネタのロシア語のほうは、メモリたくさんあればクオリティ高いの作れるようになるよとあるけど、高設定回してみましたか?

564/名無しさん[1-30].jpg2018/06/22(金) 20:39:14.14ID:4JexpXvx0
あとわかる人でいいんだけど、OFSのsync audioの使い方ってmergeフォルダにfps合わせた音だけ入れとけばいいんだろか?

ffmpegのコマンド打つ必要ありますか?
一度勝手に音声入ったから自動なんだろうけど、毎回手動で音を混ぜたの。

565/名無しさん[1-30].jpg2018/06/22(金) 21:01:28.82ID:V/RYqUsG0
>>564
OpenFaceSwapのSync audioはVIDEO Aに設定してる動画から音持ってくる感じですね

566/名無しさん[1-30].jpg2018/06/22(金) 21:03:48.48ID:4JexpXvx0
modelデータはリネームしたらAB使い回せるのな。

だから交換したい顔のmodelをリネームしてAにしてそれに交換先を学習させることもできる。

あといまクオリティが少し上がったかなーて思うのが、学習途中に50人くらいの顔データを1時間くらい学習させて、もう一度1人で学習させると、顔画像不足でぼやけてたところがほどよくクオリティあがる。と思う。
50人学習をやりすぎると他人の特徴が出すぎるし、元画像を再度1日学習させてももとに戻る。

まあ総じて言えるけど、過学習はだめだね。

567/名無しさん[1-30].jpg2018/06/22(金) 21:05:21.53ID:4JexpXvx0
>>565
あーなるほど。
よくFaceAとBにだけパスを通して学習させて、スワップさせて動画にしてたから音が入らなかったんだね。

ありがとうよくわかったよ。

568/名無しさん[1-30].jpg2018/06/22(金) 22:20:53.36ID:eyxOkXHLd
>>559
GTX1060のメモリ6Gだとバッチサイス8が限界。しかし、この辺は自動で設定されるので無理して上げる必要ない感じ。
あと、似てる他人ができることが結構あるが、はまるとボケてない綺麗なのができるぞ。

569/名無しさん[1-30].jpg2018/06/22(金) 22:21:17.25ID:aaVNF4Tn0
>>566
参考になります。
50人で事前に学習しておくのは転移学習の応用ですね。
CNNでは、浅い層は汎用的な要素(エッジやテクスチャ。deepfakesの場合だと輪郭等)を学習するので、そこは使い回せるんですよね。

570/名無しさん[1-30].jpg2018/06/22(金) 23:39:03.84ID:5CCjDayya
>>563
Labで学習する時間があるならその分OFS動かした方がマシですね

571/名無しさん[1-30].jpg2018/06/23(土) 00:13:08.95ID:lBqMfH6v0
輪郭ごと変えるってのは、OpenFaceSwap だと無理なの?

572/名無しさん[1-30].jpg2018/06/23(土) 00:28:40.41ID:dqRUwD1n0
過学習ってどう判断すればいいんでしょう?

573/名無しさん[1-30].jpg2018/06/23(土) 01:36:28.74ID:To48Mmnj0
>>572
例えば0.18までいってよしよしと思う。
それが0.10まで行ったら更に完璧になると思うだろ?
だけど逆にB側の肌の色とかが明確に出過ぎて浮いてくる。
俺的にはこれが過学習。
実際の真相学習の定義とは違うと思うよ。
素材を事前に完璧に合わせられるならずれていくこともないんだろうけどね。それなら最初から手動コラのが楽だよね。
ある程度loss値下げて納得いくのができたら、そこのmodelを取っておいて、更に回してみる。
そんで駄目ならバックアップの方の素材を追加なり諦めるなりしてます。


>>569
人工知能素人だから、ひたすらOFSのプレビューと向き合って出した答えが今のところこれですね。
コードも読めるわけじゃないので手探りですよ。

574/名無しさん[1-30].jpg2018/06/23(土) 02:22:20.36ID:XyX5BVLh0
>>572
一般的なNNでは過学習の判定には評価関数を利用します。
ざっくりいうと、損失関数(LOSS値)が訓練データへのfit具合を調べるのに対して、評価関数はテストデータ(訓練データ以外のデータ)へのfit具合を調べます。
テストデータにfitしているということは汎化性能が高いということです。
LOSS値が低い = 訓練データにfitしている としても、汎化性能が低ければ他のデータには適用できません(=過学習)

でもdeepfakesはオートエンコーダーの派生なので普通のNNとは結構違うんですよね...。

575/名無しさん[1-30].jpg2018/06/23(土) 05:57:13.56ID:To48Mmnj0
>>574
NNの定義で言えば過学習を逆に活用したのがdeepfakeみたいな感じですかね?

汎用性で思いついたのが、
前提1 美人はパーツの位置や形が似通っている。
前提2 流行した平均顔の様に、美人のパーツは流用できそうだ。

ならば特にBの顔を早期に学習させるには100人くらいの画像データで学習したモデルを流用するのが1番なんじゃないかなと。

576/名無しさん[1-30].jpg2018/06/23(土) 06:38:36.07ID:1NCzsEiA0
素材使いまわしてひたすら回しまくっていると、たまにLOSS値が
0.01 -> 0.4とかに暴騰してプレビューが真っ黒になっちゃうときあるな

577/名無しさん[1-30].jpg2018/06/23(土) 14:59:12.60ID:dQy5QNySp
574は単に素材不足なのでは?

578/名無しさん[1-30].jpg2018/06/23(土) 15:03:24.74ID:dQy5QNySp
安価間違えた。

579/名無しさん[1-30].jpg2018/06/24(日) 21:32:38.23ID:+3vNNhsx0
西島秀俊は失敗したが
ついに俺とスワップが上手く行く人物を見出した
要潤だった

580/名無しさん[1-30].jpg2018/06/24(日) 21:47:30.64ID:nkUVMqqi0
DeepFaceLabのAvatarってモードは顔は変えずに顔の動きだけ入れ替えるよ


ただサイズが256×256で元動画に表情がないと無理っぽい

581/名無しさん[1-30].jpg2018/06/24(日) 21:48:56.77ID:nkUVMqqi0
元動画に表情がないとっていうのは、元動画に口が開いてるとこがないと口が開かないし、笑ってるとこがないと笑わないってこと

582/名無しさん[1-30].jpg2018/06/24(日) 21:51:44.86ID:nkUVMqqi0
これを目指してるらしい


583/名無しさん[1-30].jpg2018/06/24(日) 22:35:08.28ID:7bM6F7L00
アバター側を動かすのはこのスレ的に需要あるのか?
素材作成に使えるかもしれないけど単なる二度手間な気がする

584/名無しさん[1-30].jpg2018/06/25(月) 18:31:51.35ID:f4DHS1iq0
どなたか解説できる方、初歩で申し訳ないのですが
1:facesにおいて、detectorのcnn hog allの違い(allが一番良い?)
2:trainでtrainerのoriginalが一番良さそうではあるけど、GAN二種がまだ使えない代物として、IAEとDfakerとは?
3:同じくtrainで、Batch size64で動いてるのでそのままとして、save intervalは今100だけど大きい場合と小さい場合どのような影響が?
4:swapにおいてconverterの違いは?

お願いします

585/名無しさん[1-30].jpg2018/06/25(月) 20:22:32.79ID:fn3MMD/R0
>>584
グーグルで単語とdeepfakeで検索して自動翻訳かけるだけで8割は聞きたいことわかるよ。
それでもわかんないとこあったら質問したらいいと思うよ。高いレベルだと俺も全くわからんけど

586/名無しさん[1-30].jpg2018/06/26(火) 00:50:59.50ID:CLTXYGX30
>>584
もっと詳しく説明できる方がいると思いますが、自分の分かる範囲で。

1:facesにおいて、detectorのcnn hog allの違い(allが一番良い?)
hog: 画像の輝度勾配に基づいて算出される特徴量を利用します。
cnn: 畳み込みニューラルネットワークを利用します。より多くの角度を検出できますが、DLなのでリソースが必要だし、失敗する可能性もあります。
all: そのままです。
基本的にhogを利用すればよいと思います。

2:trainでtrainerのoriginalが一番良さそうではあるけど、GAN二種がまだ使えない代物として、IAEとDfakerとは?
IAE: Originalの改良版。学習速度が上がるが、最終的結果はいまいちと言われています。
Dfaker: Dfakerのリポジトリを参照してください。
基本的にはOriginalを利用すれば良いと思います。VRAMがない場合はLowMemを使い、VRAMが充分ある場合はOriginalHighRes(Originalの高解像度版)を利用しても良いと思います。

587/名無しさん[1-30].jpg2018/06/26(火) 00:51:27.37ID:CLTXYGX30
>>584
3:同じくtrainで、Batch size64で動いてるのでそのままとして、save intervalは今100だけど大きい場合と小さい場合どのような影響が?
save intervalはモデル(重み)を保存するイテレーション間隔です。出来には影響ないので、そのままで良いと思います。

4:swapにおいてconverterの違いは?
MaskedとAdjustがありますが、Adjustにはバグが有るのでMaskedを利用すれば良いと思います。(たしか互換性の問題で残していたはず...)

参考になれば幸いです。

>>585
おそらくこのレベルだとリポジトリのissueを漁るか、コードを読む必要がありそうです。海外で技術系のフォーラムがあれば私も知りたいのですが、意外と無いんですよね。

588/名無しさん[1-30].jpg2018/06/26(火) 01:54:57.23ID:8sqDMRQO0
ありがとうございますcnnよりhog推奨なのは初耳でした 自分の環境でどう変わるか試してみます
>>585
技術的な説明だと日本語でも難しいのに英語だとかなり厳しい上に、「で、どう変えるとどうなるの?」という点が明確じゃなかったりでこちらで質問させて頂きました

特に技術的なことをわかってないで利用する立場としては、「いじっても変わらない、もしくは悪化する箇所」を触って泥沼になるので、「こうするとこうなるよ」というのを先に知りたかったのです

589/名無しさん[1-30].jpg2018/06/26(火) 02:17:29.49ID:30MGoxez0
>>587
そっかー。
リポジトリまでたどり着いて読んだ方が、次は自分でgitからやれたりしてためになるかなーと思ったんだよね。

590/名無しさん[1-30].jpg2018/06/26(火) 03:43:16.04ID:CLTXYGX30
>>589
たしかにリポジトリに一度は目を通さないと、概要の把握は難しいですよね。
でもプログラマ以外の方がリポジトリ見るのは結構大変ですからね...(英語、python、gitなど)

そう考えると、依然としてプログラマ以外の方にはdeepfakesはハードルが高いのかもしれませんね。

591/名無しさん[1-30].jpg2018/06/26(火) 08:12:35.93ID:CLTXYGX30
>>588
すみません。正確に言うとhogよりcnnの方が精度は高いと思います。
ただhogはcpuで済むような軽い処理だし、私の場合はhogで十分だったので。(デフォルトがhogなのも同様の理由だと思います。)

592/名無しさん[1-30].jpg2018/06/26(火) 11:28:51.73ID:CLTXYGX30
たしかdetectorにはdlibを利用していたはずです。このあたりの記事が参考になると思います。
https://towardsdatascience.com/cnn-based-face-detector-from-dlib-c3696195e01c

593/名無しさん[1-30].jpg2018/06/26(火) 13:54:48.33ID:NudTMhps0
0からモデル作る時とか、モデルデータバグった時とかプレビュー画面が完全にホラーになるw

594/名無しさん[1-30].jpg2018/06/26(火) 22:31:49.02ID:30MGoxez0
>>590
英語は翻訳でなんとかなるから、とりあえず設定はこの値をいじると変わるみたいな話題を拾っておくと概要がつかめると思いますよ。
あとは#コメ読むとかですね。

595/名無しさん[1-30].jpg2018/06/26(火) 22:40:25.48ID:30MGoxez0
条件として、
1080から720pくらいの動画が手に入らない時
加えてインスタグラムやnaverから数百枚近く画像が取れるとき。

こういった条件が重なったときは動画から写真に変換するよりも、大量の写真から顔に変換した方がきれいでいろいろな顔が取れます。

経験的にわかると思うけど、動画から静止画を取得するより最初から静止画の方がくっきりしてるわけだからボンヤリ感が少なく仕上がります。

720p相当の静止画がインスタに大量にあったモデルは1000枚近く用意できたので表情も豊かに仕上がりました。

596/名無しさん[1-30].jpg2018/06/26(火) 22:52:18.89ID:30MGoxez0
cnnとhogならcnnだけど、
例えば美少女がチュッチュしてる動画を作りたいけど片方が検出されない時はhogも試してみるといんじゃないかなー。
チュッチュみたいなシーンは回転させられないし、両方変えたいならね。

597/名無しさん[1-30].jpg2018/06/28(木) 11:50:33.34ID:3sRxZlJ+d
fakeappのことについて先程知ったんですが、低スペノートパソコンでは無理ですよね?
代替アプリはありますか?
もしくは、5万円程度なら投資しようと思うのですがこれでは無理でしょうか?

598/名無しさん[1-30].jpg2018/06/28(木) 12:53:33.44ID:l/spaHK60
試しもしないうちにいろいろ決めつけてる時点でダメだ
遅くても動くんだからまずは一回試してから決めろよ

599/名無しさん[1-30].jpg2018/06/28(木) 17:27:10.06ID:zFakTPBA0
中古i7-2600K機を3万以下で買って
1060 6Gを3万くらいで手に入れる
OSついてなかったらMSからwin10のISO落として
ヤフオクで千円前後のwin7のキー買っていれる

600/名無しさん[1-30].jpg2018/06/28(木) 17:51:24.38ID:lH+G2Ri3a
着衣の画像を全裸にすることはできる?

601/名無しさん[1-30].jpg2018/06/28(木) 18:19:15.96ID:ki1dEdWK0
無理です

602/名無しさん[1-30].jpg2018/06/28(木) 21:15:05.70ID:Q39YDPRO0
>>597
DLはGPUが必要なので低スペックのノートだと難しいと思います。
GTX 1050で、GPU以外のスペックを落として、中古で部品を揃えるなどの工夫をすれば5万でもいけるかもしれません。
ただ本音を言うとそれだとあまりにも遅いので、1080Ti買うことを考えて予算は20万~30万は欲しいところです。

603/名無しさん[1-30].jpg2018/06/28(木) 21:23:53.14ID:8azksEBm0
次世代GPUが出るまでにお金貯めとけば良いんだよ

604/名無しさん[1-30].jpg2018/06/29(金) 01:33:55.89ID:YHFsXs3O0
やっぱりAVでよくあるのけぞって感じてるシーンは平らなお面みたいになっちゃうね
Bに顎を上げて鼻の穴丸見えな角度を手に入れるのが難しい
ドラマ等でも真下からカメラが見上げるように撮ることもそうそう無いしなあ

605/名無しさん[1-30].jpg2018/06/29(金) 17:59:38.49ID:JRSFYCH10NIKU
>>604
というか真横の顔すらうまく学習できないから、現状無理だよ。
うまく行くとこだけを切り取るのさ。

606/名無しさん[1-30].jpg2018/06/30(土) 18:38:06.92ID:xd3Pz67Q0
海外だとfaceset出回ったりしてるのね
うらやましいわ

607/名無しさん[1-30].jpg2018/06/30(土) 18:55:30.59ID:FKrqMxIs0
フェラ画像ってABセット逆にしたらええの?

608/名無しさん[1-30].jpg2018/06/30(土) 21:29:23.72ID:JdlYPpDG0
>>606
日本だとクローズにやるしかないんだろうな。
Trainよりも、FaceSet作りの方が時間かかるよね。
何より時間がかかるのは相性のいいA探しだけど。

609/名無しさん[1-30].jpg2018/06/30(土) 21:46:42.49ID:kapGVNFD0
お前らが羨ましい
まともなPC買おうかなぁ

610/名無しさん[1-30].jpg2018/07/01(日) 03:04:48.37ID:HFb5viHT0
Aに向いてる動画紹介ぐらいならいいだろ
STAR-431 吉川あいみ 超高級新人ソープ嬢
かなりこちら側、正面を見続けているのに加え、恥ずかしいしぐさで顎を引いてるシーンや
そもそもカメラが若干上からで見上げてるシーンが多いので>>604のようなことになりにくい
Aに「見下ろし目線」が多いと正面向くだけでのけぞりと同じエラーが出やすいのでこれは重要

後、髪は短めだけど顔にかかってないので合わせやすいのもある
爆乳系なので、貧乳の人重ねてニヤニヤするもよし、脱がずに引退したグラビアアイドル等重ねてニヤニヤするもよしだ
こういう情報共有ぐらいなら良いと思いたい
もしやめた方が良いなら自重します

611/名無しさん[1-30].jpg2018/07/01(日) 19:05:39.09ID:Ld+LZ9R90
mtcnnを使った顔検出がステージングにマージされたようです。
今後は顔検出にはdlibのhogやcnnよりこちらを使ったほうが良さそうです。

612/名無しさん[1-30].jpg2018/07/01(日) 21:54:14.46ID:c9PmM5Hp0
>>611
open face swapの話ですか?
だとしたらlinuxでcuda有効にしたdlibビルドで挫折して
本意ではないwindowsでの作業を余儀なくされていた私には
別の意味で朗報かも

613/名無しさん[1-30].jpg2018/07/01(日) 23:09:23.77ID:IbkcT3lj0
>>612
deepfakes_faceswapのことじゃない?

614/名無しさん[1-30].jpg2018/07/02(月) 13:22:00.25ID:E08FxQ2+M
>>610
とんくす。
お礼におっぱいもみもみインタビューで検索することを許す。
本番はないが、かなりいい出来になったよ。

615/名無しさん[1-30].jpg2018/07/02(月) 13:42:21.33ID:Jp8yhjWa0
>>296のonline demoでBの足りないアングルを補完できないかな
微妙に外人顔になるのが難点だけど

http://cvl-demos.cs.nott.ac.uk/vrn/
【AIコラ】fakeapp その2【革命】 [無断転載禁止]©bbspink.com	YouTube動画>7本 ->画像>56枚

616/名無しさん[1-30].jpg2018/07/02(月) 13:47:40.39ID:E08FxQ2+M
>>615
画像が足りないから学習できないのとdlibで認識できないから学習できないのと、そもそもプログラムがうまくまだ学習できないのがある。

画像が足りなくて学習が聞いてないなら、別人の横顔大量に用意して数時間だけ学習かければ顔面崩壊は免れるよ。

617/名無しさん[1-30].jpg2018/07/03(火) 12:00:17.48ID:DHX8fG+vp
最近はソフトもいろいろだし、128の高解像度とか、full face対応とかあるみたいだけど、皆、どれでやってる?
画質とか、かかる時間とかの満足度教えて欲しい。

低スペでoriginalhighres 試そうとしたが、動かんかった。評判良ければ買い替えたいんで。

618/名無しさん[1-30].jpg2018/07/03(火) 12:49:07.58ID:/cpJnBDZd
わざわざこれのために買うほど性能いいのか?
実際に見たやつだと確かにすごいけどなんか食指が動かん

619/名無しさん[1-30].jpg2018/07/03(火) 14:54:20.14ID:2Dgz9bUM0
>>617
full faceの奴ってなに?

620/名無しさん[1-30].jpg2018/07/03(火) 17:35:07.97ID:b7uW9IDQ0
faceswapで顔の認識が上手くいかず処理してるんだけど結果が0枚になるんだけどどうすれば…
一応必要なソフトは全部入れたつもりなんですがこれを忘れてるじゃないかってものがあったら教えてください

621/名無しさん[1-30].jpg2018/07/03(火) 17:41:33.79ID:vDyG5Oti0
まず自分の環境と状況をできる限り書きましょう

622/名無しさん[1-30].jpg2018/07/03(火) 18:23:05.40ID:6saWX6VLM
>>620
だいたいはCUDAかcdnn絡みでface取れない。

623/名無しさん[1-30].jpg2018/07/03(火) 20:41:21.73ID:uxiTZqT0d
>>617
最近はもっぱらDeepFaceLabを使っている。
はまると凄く綺麗なのができる。

624/名無しさん[1-30].jpg2018/07/03(火) 21:21:46.07ID:DHX8fG+vp
>>618
イケる奴もたまに見かける。そういうのが作れるなら金出す。

>>619
Deep face labとかだと選べるっぽい。

>>623
どのモデルタイプで学習してる?

625/名無しさん[1-30].jpg2018/07/03(火) 21:28:58.86ID:UOUiy6ej0
>>624
H128を使っているよ。成功するとdeepfakes_faceswapのoriginalよりかなり綺麗にできる。

626/名無しさん[1-30].jpg2018/07/03(火) 23:07:09.14ID:nQsFl/rT0
【AIコラ】fakeapp その2【革命】 [無断転載禁止]©bbspink.com	YouTube動画>7本 ->画像>56枚
顔の変換自体がいい感じでもこういうフレームが時々挟まって残念な感じになる現象はどうすればいいんですか?
なお、何となく、open face swapでcnnをデフォルトのパラメータで使ってます

627/名無しさん[1-30].jpg2018/07/04(水) 00:05:47.18ID:WE8ovtwi0
>>626
真ん中右の顔のことなら手動で消してSwapのとき-aオプションで飛ばしてるよ

てかlandmarkってどうやって表示させてるの?

628/名無しさん[1-30].jpg2018/07/04(水) 00:17:12.57ID:3BjJmwdg0
動画にするとき、直前のコマで埋めてごまかすことにしてる。

629/名無しさん[1-30].jpg2018/07/04(水) 00:38:28.76ID:ZcWkCUrZ0
>>627
基本GUIは使わずコマンドラインで作業してます
個人的には連番も%dじゃなくて%05dとかにしたいし
じゃないとエクスプローラで見た時に動画そのものの順番にならないから

open face swapの場合、ランドマークは顔抽出ののき-dlオプション付けると表示されます

630/名無しさん[1-30].jpg2018/07/04(水) 21:51:31.88ID:WE8ovtwi0
>>629
そんなオプションあったんだね。ありがとう

631/名無しさん[1-30].jpg2018/07/05(木) 11:39:35.49ID:gAzEGjah0
DeepFaceLabとかOpenDeepFaceSwapはOpenFaceSwapにおけるColor adjustオプションってないの?

632/名無しさん[1-30].jpg2018/07/05(木) 20:37:39.82ID:twDCLVqCM
似てる遠い親戚になる原因の一つかなと思うのが、目、鼻、口の上書き開始位置がAを基準にしてるからじゃないかなーと。

だから輪郭が同じくらいの大きさで、かつ目鼻口の距離が似てるモデル、
かつ髪型が一緒。

だと現状1番似るはず。

きちんとソース読める人はこの考えであってるか教えてください。

633/名無しさん[1-30].jpg2018/07/06(金) 01:25:48.64ID:Dl3OwZOq0
H128でやってる人はloss値どのくらいまで下がる?

634/名無しさん[1-30].jpg2018/07/06(金) 07:03:14.83ID:hGNouqL70
>>633
0.07とか0.06とかで十分綺麗なのができるな。

635/名無しさん[1-30].jpg2018/07/06(金) 16:27:28.39ID:dzTMUOwY0
>>634
ちらつき対策はどうしてる?そのままコンバートするとちらつくんだよな。
hist-matchオプション付けたらちらつかないけど、顔がてかってしまう。
素材が悪いのかもしれないけど。

636/名無しさん[1-30].jpg2018/07/06(金) 16:47:50.00ID:DN3YmcXq0
openfakeswapをようやく動かすことに成功した者ですが、
これより効率良いとか、早いとか良いソフト出ました?
1060の6G使用中です
ソレ動くならソレ使っとけ、的な後押しでも構わないのですが、自分で追加するオプションはさっぱりでデフォのままの機能だけ利用してます

637/名無しさん[1-30].jpg2018/07/06(金) 18:58:46.59ID:XzxxZd3Ed
>>635
seamless-hist-machを標準でやってて、気になるときはseamlessかhist-machで変換して一番違和感ないのを採用している。
どれにしてもdeepfakes_faceswapよりはチラつきは少ないと思う

638/名無しさん[1-30].jpg2018/07/06(金) 21:16:54.56ID:ruYqVACh0
Bが共通の場合model使いまわしてます

Aのlossが0.2あたりだと、全体的な印象はAだけど、細部はまだぼやけている印象
モデル使い増してると、数分でここに到達する
これでは使えないからと
更に回すと、段々細部まで学習が進み、出力がくっきりしてくる

でも、それと同時に、段々、Aの要素が出てくる
眉の角度、鼻の造り、そういうAの細部が浮かび上がってくる
Bから遠ざかっていく。。。

AとBが似てないから、こういう違和感が出てくるんだろうか

639/名無しさん[1-30].jpg2018/07/06(金) 22:53:01.67ID:dzTMUOwY0
根本的に似てないならどうしようもない
似てる場合はB→AだけじゃなくてA→Bのプレビューも綺麗に出てちょうど顔が入れ替わったみたいになる

640/名無しさん[1-30].jpg2018/07/06(金) 22:58:33.83ID:3VwUxW5B0
色合わせは結局、コード自作することにした。だいぶマシになったが、満足するレベルにはならんなぁ。

641/名無しさん[1-30].jpg2018/07/07(土) 17:16:17.95ID:yfhG+u3t00707
このタレントはこのAV女優と相性がいいっていうのを共有しないか

642/名無しさん[1-30].jpg2018/07/07(土) 19:28:53.33ID:meivfAop00707
ライブチャット動画はいいぞ、ずっと正面見ててくれるから
マスクしてない子に限るけど

643/名無しさん[1-30].jpg2018/07/08(日) 07:51:37.91ID:tMOfn8KQ0
そう思って「ライブチャット風AV」観てみたらいちいちカメラ掴んで胸アップで脱いだりと、全然使えなかったw
本物のがよっぽど良さそう
あと白人エロボディで試したいと思ってる

644/名無しさん[1-30].jpg2018/07/08(日) 18:06:46.69ID:GA83x92V0
>>643

鼻が高い白人とアジアンを混ぜるのはむずいよ。
ハーフっぽいav女優さんのハナガ違和感バリバリだった。

645/名無しさん[1-30].jpg2018/07/08(日) 18:29:00.61ID:GA83x92V0
改めて質問なんだけど、スレ見る限り、
lossAとlossBの値は単に素材AとBのコピーであるA'とB'がどれだけ正確に作れているかどうかを示す値で合ってるんだよね?

疑問な点が下記です。

今正面画像がほとんどのAとBのloss値が0.009と0.010まで行った。

Bの素材を厳選すると更に下がるか?と思い、厳選したら逆にBのloss値は上昇した。

今度は素材を100枚近く追加したらlossAも0.0015ほど上昇した。
値のログを観察してる限り、train中の誤差ではない急上昇だった。
でBが下がるに連れAも下がってる。

これはなんでかなーと。

646/名無しさん[1-30].jpg2018/07/08(日) 18:32:58.11ID:GA83x92V0
質問の核心としては、
AとBの単なるコピーを練習してるなら、片方の素材の増加だけで値は変わらないんじゃね?
この辺の説明できる人いますかね?

単なるコピーをtrainしてるなら横顔とかは背景までtrainしてることになるけど。

647/名無しさん[1-30].jpg2018/07/08(日) 20:24:09.88ID:ku5G3Aoa0
>>646
私の理解が正しいなら
A → 共通エンコーダー → Aのデコーダー → A'
B → 共通エンコーダー → Bのデコーダー → B'
なので、例えばA素材が増えればA→A'の学習結果によって共通エンコーダーが変化する
共通エンコーダーが変化すればB→B'のlossが上がることもあれば下がることもある

648/名無しさん[1-30].jpg2018/07/08(日) 21:25:35.30ID:ku5G3Aoa0
私の場合、A,Bともに1万枚程度の画像を準備している
特にBは沢山の画角を準備している
そういうわけで、かなり学習を進めてもBのlossは0.2近傍までしか下がらない

ちょっと顔画像を整理した方が良いのかなとは思っている
open face swapにも、そして恐らく他のやつにも、そういう時に役に立つ
sort toolというのが入っている
コマンドラインからしか使えないけどね

似た画角とか画像の品質とかごとに顔画像を分けてくれる
私はまだ試してないけど

649/名無しさん[1-30].jpg2018/07/08(日) 21:46:48.15ID:ku5G3Aoa0
とか書いてたら、そもそも学習の時ってサンプルの順番でランダマイズされてるか気になって来た
だって動画から抜き出した画像って似た画像続いているでしょ
個人的にバッジサイズは128なんだが
似た画像満載なバッジなんて、バッジの意味がない

grepすら使えない未整備なwindowsで作業してるので
ソース読むのも億劫だ

とりあえず顔画像の名前ランダムにすればいいのかな

650/名無しさん[1-30].jpg2018/07/08(日) 21:52:30.43ID:MKbNOgeh0
知り合いの女の子でやってるやついる?

651/名無しさん[1-30].jpg2018/07/08(日) 23:10:34.43ID:GA83x92V0
>>648
回答ありがとう!
機械学習わからない自分は、AをトマトBをニンジンと考えて同じミキサーでジュース状にしたあとAとBの混合比率で特徴出してるのかなーとか考えてました。

sortはdeepfacelabをダウンロードしたらついてくる奴が便利ですよ。
gitのreadmeに顔を抽出する時のベストプラクティスという一例も書いてくれてますし、batなんで使いやすいです。

652/名無しさん[1-30].jpg2018/07/08(日) 23:46:43.67ID:GA83x92V0
>>650
やりたくても無理なんじゃないかなー。
プリ除いて最低50枚以上は正面画像拾えないと真正面すらまともにならないし。

知り合いで50枚も写真取れるなら口説けばーと思ってしまう。

彼女いて顔が小さいなら芸能人でもくっつけてハメ撮りを改良したらいんでない?

653/名無しさん[1-30].jpg2018/07/09(月) 00:17:46.89ID:APr6YbmR0
以前よりもきっちりソートツールを使い、妥協を少なくしたらプレビューがみるみる改善された。
涙袋が特に顕著だったかな。

trainにどの画像使うかはランダムだと思う。
動画1から3でface作ってるけど、画像の4.5割を占める1から抽出した画像が多く出るからね。
他は比率に沿ってだいたいでてるよ。

画角でソートできるツールあるから、pngに位置情報打ち込んでAとBの素材から自動的に似た画角を選んでtrainしてくれたらもっと楽なんだけどなー。

654/名無しさん[1-30].jpg2018/07/09(月) 02:39:01.21ID:LZ6A2jxH0
>>650
オリジナル画像30枚ぐらいでやってるよ
自撮りに加えて第三者目線(みんなでワイワイやってるところを誰かが撮ったやつ)の写真
やっぱり上を向いた、鼻の穴見える角度に弱いけど正面まっすぐ向いた顔はOKと言えるレベルになってる

運がいいことにかなり似てるAV嬢がいて(元々妄想捗ったレベル)角度の保管を試したら成功

Bに素人を使いたい場合、似てる女優探すのは効果大だとおもう

655/名無しさん[1-30].jpg2018/07/09(月) 19:22:05.06ID:AwZuB8BkM
>>629
これでランドマーク表示させて自分でAとBの正面画像を重ねたら結果がわかるね。

Bの輪郭のランドマークとフォルダ内の100人のランドマークを比較して順位別にファイル名をリネームしたら良さそう。

656/名無しさん[1-30].jpg2018/07/09(月) 19:29:40.78ID:AwZuB8BkM
ってこれってAV女優を見つけてくるサービスと仕組み同じか。

657/名無しさん[1-30].jpg2018/07/09(月) 19:46:43.04ID:AwZuB8BkM
既知のバグだけど、OFSで合成結果を表すプレビュー画面に青や赤のノイズが発生することがある。

原因1
何らかの原因でtrainAorBが破損した時
すべての結果がノイズになる。

原因2
黒塗りのある見切れた画像と黒塗りのない完全な顔でtrainをかなり続けたとき。
loss0.011あたりから黒塗り部分にノイズが発生し、時間とともに悪化していきます。

対処にはバックアップからtrainデータを上書きするか、黒塗りがある画像を削除してtrainさせないことです。

658/名無しさん[1-30].jpg2018/07/12(木) 02:00:27.56ID:40nECpLv0
画像からノイズを除去することまでできるようになったみたいね
nvidiaはどこまで行くつもりなんだろう

659/名無しさん[1-30].jpg2018/07/13(金) 01:24:09.97ID:dRF/3ppr0
http://mercury.bbspink.com/test/read.cgi/housekeeping/1487327589/985
985 名無しさん@ピンキー 2018/07/12(木) 17:35:03.33 ID:kjvxAYKV0 [2回目]
未成年のみに限定したスレ
https://phoebe.bbspink.com/test/read.cgi/ascii/1525096908/

660/名無しさん[1-30].jpg2018/07/13(金) 23:35:51.08ID:XcqXrwqz0
sort toolの使い方
コマンドラインよく分からない初心者向け解説
open face swapをwindowsで使ってる場合な

c:
cd c:\OpenFaceSwap
python\scripts\python.bat C:\OpenFaceSwap\faceswap\tools\sort.py sort -i C:\fake\faces-kanna -o C:\fake\faces-kanna-sort -s blur

C:\fake\faces-kanna の顔画像を ぼやけ具合順に並べ変えたものを C:\fake\faces-kanna-sort に出力するのが↑の操作な
これでぼやけた画像を一括削除するのが簡単になる

他の機能を知りたければ
python\scripts\python.bat C:\OpenFaceSwap\faceswap\tools\sort.py -h
でヘルプメッセージが読める
英語読めないというのは俺には助けられない

661/名無しさん[1-30].jpg2018/07/14(土) 16:14:38.66ID:jxljDvHm0
>>660
OpenFaceSwapのsort.pyはあまりおすすめしません。
renameはそこそこ動きますが、バグが多く、特にfoldersがあまりうまく機能しません(そもそもOpenFaceSwap自体、今ではおすすめしません。)
faceswapの最新版をpullするか、face_recognition・dlib・OpenCV等を使い自分で実装することをおすすめします。(ライブラリが殆どやってくれます)

662/名無しさん[1-30].jpg2018/07/14(土) 20:24:48.13ID:HCH0fMSo0
>>661
素人にわかるように書いてくれ。
その点、660は有能。

663/名無しさん[1-30].jpg2018/07/14(土) 20:58:58.19ID:jxljDvHm0
>>662
説明不足ですみません。sort.pyにはざっくり言うと2つの機能があります。
ソート(rename)と分類(folders)です。分類(folders)の方にバグがあります。
枯れた技術ではないので、sort.pyに限らず結構バグがあります。
faceswapは頻繁にコードが修正されバグも回収されますが、OFSは修正されません(私が知る限りですが)

664/名無しさん[1-30].jpg2018/07/14(土) 23:33:29.17ID:bRgOpVpN0
>>647
A → 共通エンコーダー → Aのデコーダー → A'
B → 共通エンコーダー → BAのデコーダー → B'
という具合に、Aの画像をうまくA'として上手く復元できるよう
共通エンコーダーとAのデコーダーの学習を行う
同様に、Bの画像をうまくB'として上手く復元できるよう
共通エンコーダーとBのデコーダーの学習を行う

表示されるlossはA→A'、B→B'のもの

スワップ(入れ替え:交換)の仕組みは
A → 共通エンコーダー → (Aのデコーダーではなく!!)Bのデコーダー → AをBにスワップしたfake画像
もっと本格的な手法もあるんだけど
現時点で普通の人が普通に入手できる機材で普通に実現できるのはこの仕組み

665/名無しさん[1-30].jpg2018/07/15(日) 00:10:29.95ID:Qfv2jBTd0
>>663が説明下手くそだということはわかった

666/名無しさん[1-30].jpg2018/07/15(日) 18:06:51.04ID:28eGjDyF0
会社の同僚のかわいい子の写真を使って合成してるけどまじで抜けるよ
写真は彼女のツイッターとインスタ
マジで今の時代狂ってるよ

667/名無しさん[1-30].jpg2018/07/15(日) 19:15:49.88ID:NwIJtPE60
アニメでやってみてるんだけど、
アマガミだけ顔認識しない

668/名無しさん[1-30].jpg2018/07/15(日) 21:36:18.17ID:28eGjDyF0
アニメでできるのかw

669/名無しさん[1-30].jpg2018/07/15(日) 22:03:58.03ID:VU66+aPN0
アイドルって輪郭を誤魔化すために弦月みたいな髪を顔の横に垂らしてる率が超高いな
顔の輪郭を機械学習が誤認しまくるのを見て、改めてその役割に気付いたわ

670/名無しさん[1-30].jpg2018/07/16(月) 21:48:03.59ID:D+AZZuAP0
いま知り合いの写真30枚ぐらいでやってるけど足りない角度とかって自作できないものかね

671/名無しさん[1-30].jpg2018/07/16(月) 23:05:58.99ID:Htt2hOyp0
これってAVジャケも作成可能?

672/名無しさん[1-30].jpg2018/07/17(火) 02:20:02.33ID:KEX/3meV0
初歩的な質問ですいません
openfaceswapでトレーニングする際に
ResourceExhaustedError (see above for traceback): OOM when allocating tensor with shape[3,3,512,1024] and type float on /job:localhost/replica:0/task:0/device:GPU:0 by allocator GPU_0_bfc
てエラーが出て止まってしまうのですが、スペック足りてないってことなのでしょうか

環境は、CPU:i7-4790、メモリ:8G、げふぉGTX960の2Gで、
設定でLowMem且つバッチサイズ1にしてみても駄目でした
グラボの替え時すかねー

673/名無しさん[1-30].jpg2018/07/17(火) 20:39:02.25ID:6LJmZPgC0
おじいちゃん、そんな訳の分からないことばっかり言ってるからご近所さんに嫌われるんですよ!

674/名無しさん[1-30].jpg2018/07/17(火) 21:31:58.55ID:DjVQqvTA0
>>672
同じエラーでてたけど、
GTX1060 6Gにグラボ変えてからはでなくなった。

675/名無しさん[1-30].jpg2018/07/17(火) 22:06:56.84ID:E/8HmWONa
>>672
エラーの理由書いてありますやん
文字すら読めないならもう諦めろ

676/名無しさん[1-30].jpg2018/07/19(木) 05:36:46.98ID:7U6rjNSq0
OOM....

677/名無しさん[1-30].jpg2018/07/19(木) 14:33:45.80ID:SwaPuvNZa
アニメの顔抽出できるか?なんどかやったことあるけどひどいもんだぞ。

678/名無しさん[1-30].jpg2018/07/20(金) 22:47:50.30ID:PQ2IFaZi0
眉毛と目の間が狭くてOpenFaceSwapだと眉毛が二重になる人でも、DeepFakeLabだと特にErodeとか設定しなくても二重にならないね

679/名無しさん[1-30].jpg2018/07/21(土) 00:29:48.00ID:IRsYM1gZ0
>>677
ソードアートはいけた
目が大きいのは無理っぽい。
ちなみにコミックのI"sでもいけた。
顔抽出できてもトレーニングでできる顔は微妙だけどね

680/名無しさん[1-30].jpg2018/07/21(土) 02:05:34.10ID:ivUclb5J0
好きかどうかは別として3DCGだったらどうなるんだろう?

681/名無しさん[1-30].jpg2018/07/21(土) 15:11:15.10ID:5qJTEHj4M
doax3は割と行けますね

682/名無しさん[1-30].jpg2018/07/22(日) 11:50:16.30ID:bfXJkfpT0
すいません
>>540のDeepFaceLabを使ってみようと思うんですがこのサイトのどれをDLすればいいのでしょうか

683/名無しさん[1-30].jpg2018/07/22(日) 15:28:53.85ID:ooqb/yPO0
>>682
readmeの一番下にロシア語のフォーラムのリンクがあって下の方にbittorrentのマグネットリンクがあるよ

684/名無しさん[1-30].jpg2018/07/22(日) 16:06:47.74ID:bfXJkfpT0
>>683
ありがとう
これってexe実行ファイルじゃなくて1からのbatファイルを実行していくのかこれw

685/名無しさん[1-30].jpg2018/07/22(日) 18:43:07.38ID:1T1awVZVd
>>682
普通にpythonとかインストールして使ってみたら?

686/名無しさん[1-30].jpg2018/07/23(月) 19:07:13.88ID:msIf2aKo0
ありがとう

687/名無しさん[1-30].jpg2018/07/23(月) 19:21:41.94ID:msIf2aKo0
すいません
OpenFaceSwap導入しようと思いますが顔抽出ができません
CUDA9.0   cuDNN7.05 最新のグラボドライバ  Microsoft Visual Studio Redistributable 2015

上記インストール後にcuDNN7.05内のbin,include,libの3つをCUDAに上書きしました。
しかし動画から画像抽出はできるのですがFACES Aを押しても顔抽出ができません。。

解決方法ご教示願えませんでしょうか

688/名無しさん[1-30].jpg2018/07/23(月) 20:39:33.94ID:KkzBzxuS0
windows10にDeepFaceLabをインストールするメモ

○python をインストール
https://www.python.org/downloads/windows/
からpython-3.6.6-amd64.exeをダウンロードして実行

○visual studio 2015をインストール
https://visualstudio.microsoft.com/ja/vs/older-downloads/
から
ja_visual_studio_community_2015_with_update_3_x86_x64_web_installer_8922964.exe
をダウンロードして実行
インストールオプションでvc++もインストールする

○cmakeのインストール
https://cmake.org/download/
からcmake-3.11.4-win64-x64.msiをダウンロードして実行

689/名無しさん[1-30].jpg2018/07/23(月) 20:41:09.15ID:KkzBzxuS0
○CUDA9.0のインストール
https://developer.nvidia.com/cuda-90-download-archive
から以下をダウンロードして順番に実行
cuda_9.0.176_win10.exe
cuda_9.0.176.1_windows.exe
cuda_9.0.176.2_windows.exe
cuda_9.0.176.3_windows.exe

※Windows10 1803の場合は、nVIDIAのグラフィックドライバーを先にインストールしてしまうとcuda9.0のインストールに失敗する!
エラーでインストールできない場合は、グラフィックドライバーを標準に切り替えた上ですべてのnVIDIAプログラムをアンインストールし、先にcudaをインストール

○cudnnのインストール
https://developer.nvidia.com/rdp/cudnn-download
からcudnn-9.0-windows10-x64-v7.1.zipをダウンロード
※nVIDIA DEVELOPERへのユーザー登録が必要
ダウンロードファイルを解凍したら、すべてのファイルをCUDAのインストールフォルダ(C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v9.0)へコピー

690/名無しさん[1-30].jpg2018/07/23(月) 20:42:27.62ID:KkzBzxuS0
○DeepFaceLabをダウンロード
https://github.com/iperov/DeepFaceLabから
DeepFaceLab-master.zipをダウンロード
緑の「Clone or download」→Download ZIP
ダウンロードしたzipファイルを
任意のフォルダに展開(2バイト文字のないフォルダ)
コマンドプロンプトを開き、展開したフォルダへ移動

コマンドプロンプトで以下を実行
pip install virtualenvwrapper-win
mkvirtualenv open
setprojectdir .
pip install -r requirements-gpu-cuda9-cudnn7.txt

コマンドプロンプトにずらーっと文字が流れるので
終わるまで待つ

691/名無しさん[1-30].jpg2018/07/23(月) 20:43:13.70ID:KkzBzxuS0
この後
python main.py -h
を実行して、ヘルプが出たらインストール成功
2回目からはコマンドプロンプトで
workon open
を実行すると、DeepFaceLabの実行環境が立ち上がる

使い方は、コマンドプロンプトでヘルプを出して確認
顔画像抽出のヘルプは
python main.py extract -h
トレーニングのヘルプは
python main.py train -h
コンバートのヘルプは
python main.py convert -h
顔画像のソートのへプルは
python main.py sort -h

692/名無しさん[1-30].jpg2018/07/26(木) 02:14:40.03ID:QLkurWIH0FOX
日本人のサンプル完成動画を参考のために見たいのですが
ないでしょうかね?

それにしてもマシンスペックが要求されますね・・
GTX1070を 5枚くらい買いました 笑

693/名無しさん[1-30].jpg2018/07/26(木) 07:43:23.32ID:J+ECekms0FOX
5枚ってSLIにすんの?

694/名無しさん[1-30].jpg2018/07/26(木) 14:55:09.07ID:QLkurWIH0
>>693
1台のPCに入れたので全部同時に動きます。

695/名無しさん[1-30].jpg2018/07/26(木) 15:55:42.57ID:9ERIA1Goa
>>694
4way が最大だと思ったが構成が知りたい

696/名無しさん[1-30].jpg2018/07/26(木) 19:55:46.64ID:QLkurWIH0
>>695
あまりよくわからないけど、専用PC
GTX1070が5枚積まれて居る。ちょっと値引きしてもらって
50万くらいだった。これでなんでもアイコラできる!

ただストレージがすごく少ないんだけど
そこはクラウドにした方が良いって言われたのがちょっと
微妙かなとは思う。

697/名無しさん[1-30].jpg2018/07/26(木) 21:50:53.34ID:b/4r6b0J0
>>696
私は GTX1060 1枚で普通に楽しめてます
私の場合256x256の顔画像で計算してるんですが
そのスペックだと512x512いけますか?

私はここで勉強して、動画は横640px程度まで解像度落としてます
256x256だと、これくらいが限界なんです
低解像度の顔画像を引き延ばして高解像度画像作ってもボケボケなんで
動画の解像度落とす必要がある

そのスペックだと512x512いけますか?
単純に演算量は演算リソースがO(N^2)だと
スペック4倍なら512x512も可能だし

698/名無しさん[1-30].jpg2018/07/26(木) 22:11:59.67ID:QLkurWIH0
>>697
いや、それがまだアプリを起動できていないからわからない。
だから上で、励みになると思って、日本人の動画のサンプルを見れない
か聞いたんですよ。でも経験上これくらいのスペックがあれば
4kでも対応できるはず。ただメモリが8Gしかないのが不安です

699/名無しさん[1-30].jpg2018/07/26(木) 22:17:35.37ID:Kmd5Hm4ia
>>697
マニュアルみたけど512で抽出する方法と解析する方法のってないけどできるの?

700/名無しさん[1-30].jpg2018/07/26(木) 22:19:42.49ID:b/4r6b0J0
品質はさておき、日本人のfake動画が手軽に見られるのはここ
https://fakey.ltd/

701/名無しさん[1-30].jpg2018/07/26(木) 22:26:06.97ID:QLkurWIH0
>>700
ありがとうございます!見てみます!

702/名無しさん[1-30].jpg2018/07/26(木) 22:41:32.37ID:QLkurWIH0
>>700
イメージが掴めました
輪郭も本人にしないと本人に見えないですね・・
でも期待していたものができそうです!

703/名無しさん[1-30].jpg2018/07/26(木) 22:47:20.85ID:b/4r6b0J0
そなんなことよりさ
個人的には顔画像抽出にかかる時間と、糞なその精度
不要な顔画像を手動で除去する膨大な時間
これがボトルネックになってる

俺はOpenFaceSwap使ってるんだが
顔抽出のときの、欲しい顔と欲しくない顔のオプションってちゃんと機能する?
なんか全然上手くいかないんだが

上手くいかないので、画像回転オプションなんか使って可能な限り沢山顔画像抽出している
そうして抽出した膨大な顔画像から不要顔な顔画像をほぼ手動で削除するので、糞時間かかる
本当にダメダメ
どうすればいいの?

704/名無しさん[1-30].jpg2018/07/26(木) 23:10:59.48ID:QLkurWIH0
>>703
動画Bを顔抜き出し用の動画
更に画像を数枚ー数十枚 抜き出す前に読み込ませる。
そしてボケた画像や使えない画像を自動消去。
髪型や、輪郭はパーセンテージで自動調整。

本当は、顔の画像ベースにレンダリングできればと思ってますけど
取り急ぎそんな仕様でアプリを作ろうと思ってます
スノーの顔交換のように簡単に使えないと意味がないと思うので

ただ、声ってどうなるんですか?

705/名無しさん[1-30].jpg2018/07/26(木) 23:26:58.09ID:b/4r6b0J0
>>704
声なorz

元プログラマな俺が、頑張って声の変換プログラムをフルスクラッチで書いてみたことあるが
全然ダメだったわ
己の無力さを痛感する残念な結果だったよ

https://qiita.com/KSRG_Miyabi/items/2a3b5bdca464ec1154d7
手法は結構違うけど、結果としは俺もこのレベルに終わったよorz


&feature=youtu.be
これでは抜けない

706/名無しさん[1-30].jpg2018/07/26(木) 23:38:16.03ID:pSyF5p4/0
>>703
DeepFaceLabだけどTools使えば30秒くらいで消せるよ
>>704
レンダリングしたいならSfMとかそっち系のライブラリじゃないか?

707/名無しさん[1-30].jpg2018/07/27(金) 01:22:21.24ID:KTYax8vr0
>>705
自分も声は難しいのかなと思っていたのですが
それはやはり難しいのですね、こればっかりは仕方ないですね。

実は先ほどからインストール頑張ってるのですが
ちょっと敷居が高くてプログラムごと開発しようと思ってます


これエロだけじゃなくてめちゃめちゃ良いものだと思うんですよ。

708/名無しさん[1-30].jpg2018/07/27(金) 12:21:59.47ID:Mw4QDYOHd
>>703
顔画像の削除は、DeepFaceLabかdeepfake/faceswap使ってsortコマンド使えば楽チン

709/名無しさん[1-30].jpg2018/07/27(金) 20:51:18.68ID:/Bk7tArM0
何回やっても顔の中心部分だけに顔が上から貼り付けられたようになっちゃうなあ
これはmodelデータの時間の問題じゃない気がするんだけど、輪郭から変える方法とかない?

710/名無しさん[1-30].jpg2018/07/27(金) 21:42:03.19ID:ydEeBN3N0
erode設定してないんじゃないの
deepfacelabとかopendeepfaceswapならerode設定する必要ないけど

711/名無しさん[1-30].jpg2018/07/27(金) 22:14:47.89ID:ydEeBN3N0
openfaceswapはerode,blur,color adjust設定必須
でも赤系の動画だと色合わない気がする
deepfacelabとopenndeepfaceswapはhist match設定するだけで綺麗に出来る
色も全般的に上手く合う
でもhist matchオプション付けるとシーンによって顔がテカるのと、まつ毛が黒潰れする時がある

712/名無しさん[1-30].jpg2018/07/27(金) 22:19:08.25ID:ydEeBN3N0
あと俺だけなのかわからないけど、openfaceswapはswapする時CPU処理がフルに使えなくて時間かかる
opendeepfaceswapとdeepfacelabは100%で出力出来る上にerodeやblurの設定必要ないから早く出力できる
erodeやblurは値を大きくするほど出力に時間かかるし

713/名無しさん[1-30].jpg2018/07/27(金) 23:32:02.27ID:6eLjqgzF0
>>709
輪郭が髪型で隠されてて、隠れてないところを輪郭だと判断されてしまって、地獄のミサワみたいになってるんじゃない?

714/名無しさん[1-30].jpg2018/07/27(金) 23:44:13.44ID:o9o6aBg40
deepfacelabって実際どう? Openfaceswapより良い感じ?

715/名無しさん[1-30].jpg2018/07/28(土) 00:05:36.68ID:ZOPJz5qf0
deepfacelab使うともうopenfaceswapに戻れないな
openfacesswapはちょっと顔が大きい動画だとコントラストや解像度の低さが目立ってホラーゲームのサイレンみたいな顔になっちゃうでしょ
deepfacelabのH128ならドアップとかじゃない限りフルHDでかなり綺麗な動画出来るよ
しかも出力も早いし

716/名無しさん[1-30].jpg2018/07/28(土) 03:08:11.79ID:s1MZWDkj0
>>710->>711
ありがとう そんな設定あったとは知らなんだ…
Coloradjustは色調整だよね?チェック付けるだけでいいのか
ただSeamlessはチェック付けたらちょっと輪郭の部分補正されたけどやっぱり不自然な引き伸ばしはあるよね
これはBlurとErodeを手動でやったほうがいいの?あとBlurはぼかしってわかるけどErodeって何…?

717/名無しさん[1-30].jpg2018/07/28(土) 12:50:46.09ID:ZOPJz5qf0
>>716
前スレに書いてあるよ
同じことの繰り返しになるからわからないことがあったらまず過去ログ検索した方が良い

718/名無しさん[1-30].jpg2018/07/28(土) 16:05:55.45ID:OWddNF8CH
偉そうに言うなよ

719/名無しさん[1-30].jpg2018/07/28(土) 16:19:39.64ID:ZOPJz5qf0
滅茶苦茶丁寧に言ったつもりだけどな

720/名無しさん[1-30].jpg2018/07/28(土) 20:06:47.45ID:mg2ZoWds0
deepfakeのA側に向いてそうなAVってないですか

721/名無しさん[1-30].jpg2018/07/28(土) 20:49:38.08ID:SmG/vZCK0
DeepFaceLabってSLIで結構高速化する?

722/名無しさん[1-30].jpg2018/07/28(土) 20:56:30.93ID:mg2ZoWds0
DeepFaceLab使ってみたけどこれは今までのソフトよりすげーわ

723/名無しさん[1-30].jpg2018/07/29(日) 08:29:17.11ID:loJB+8Sg0
openfaceを使ってるんだけど、同じぐらいすぐ使えて高性能とか新しいバージョンとかあります?
なんか色々あるらしいのはわかったけど、導入にコマンド打って云々とか気力が出ない

724/名無しさん[1-30].jpg2018/07/29(日) 09:00:16.39ID:dPUMY9YW0
>>723
ない

725/名無しさん[1-30].jpg2018/07/29(日) 11:03:38.61ID:xOxjjfK0M
>>700
このサイトを橋本環奈の事務所に送って訴えて貰えばいいわけだな?

726/名無しさん[1-30].jpg2018/07/29(日) 11:43:12.52ID:dPUMY9YW0
>>725
下手すぎて本人に見えない(笑)

727/名無しさん[1-30].jpg2018/07/29(日) 17:45:30.76ID:tRhdR/MRrNIKU
deepfacelabってGUIある?

728/名無しさん[1-30].jpg2018/07/29(日) 17:59:11.48ID:ZpGnyEaxdNIKU
>>727
GUIはない。deepfake/faceswapの方はある

729/名無しさん[1-30].jpg2018/07/29(日) 18:28:56.62ID:U5QTW7EC0NIKU
deepfacelab
やばい使い方わからん

730/名無しさん[1-30].jpg2018/07/29(日) 20:45:37.81ID:dPUMY9YW0NIKU
>>729
何がわからん?

731/名無しさん[1-30].jpg2018/07/29(日) 22:56:19.45ID:U5QTW7EC0NIKU
>>730
4) data_src extract faces MT best GPU.bat  これ押しても顔の抽出ができないです。

732/名無しさん[1-30].jpg2018/07/30(月) 02:20:26.30ID:x28ec5Zw0
>>724
そうですか
myfakeappからopenfaceswapの流れだから入れるもの入れてボタンポチーじゃないと俺には無理だな
とりあえずそれっぽいモノはできてるからこれでしばらく戦うことにします

733/名無しさん[1-30].jpg2018/07/30(月) 03:05:54.52ID:B63dhrN70
>>688
python-3.6.6-amd64.exeがどこにもないんですが…

734/名無しさん[1-30].jpg2018/07/30(月) 06:52:55.74ID:GfMMT5mL0
そもそも>>689-691の流れでいいの?
この場合、>>691のworkon openを実行しても無反応なんですが

DeepFaceLabの詳細な導入から使い方までの手順ってみんな海外フォーラムとかで自力解決されてるのですか?

735/名無しさん[1-30].jpg2018/07/30(月) 07:40:36.97ID:0Cx0Cssf0
>>733
Python 3.6.6 - 2018-06-27
のところの
Download Windows x86-64 executable installer
をダウンロードしたまえ

736/名無しさん[1-30].jpg2018/07/30(月) 07:44:40.06ID:0Cx0Cssf0
>>734
690までは1回だけ実行。
workon openは、2回目以降、新たにコマンドプロンプト立ち上げた時に実行だ。

python main.py -h
とうってヘルプ出てくる?

737/名無しさん[1-30].jpg2018/07/30(月) 11:36:04.11ID:KT4CUY16a
>>736
ヘルプぽいのはでてます。
ただ英語の羅列なんであってるかは分からないです。

738/名無しさん[1-30].jpg2018/07/30(月) 13:48:17.29ID:0Cx0Cssf0
>>737
ヘルプ出てるのか、出てないのか?
出てないならインストール失敗している。
別に難しい単語とか構文じゃないので、それもわからないんだとどうしようもないなぁ〜

739/名無しさん[1-30].jpg2018/07/30(月) 14:06:51.26ID:0Cx0Cssf0
>>737
ちなみに、成功してるとこんなのが出る
(open) F:\test\open>python main.py -h
usage: main.py [-h] [--tf-suppress-std] {extract,sort,train,convert} ...

positional arguments:
{extract,sort,train,convert}
extract Extract the faces from a pictures.
sort Sort faces in a directory.
train Trainer
convert Converter
optional arguments:
-h, --help show this help message and exit
--tf-suppress-std Suppress tensorflow initialization info. May not works
on some python builds such as anaconda python 3.6.4.
If you can fix it, you are welcome.

740/名無しさん[1-30].jpg2018/07/30(月) 14:47:23.40ID:0Cx0Cssf0
>>737
インストール成功してるなら以下を試してみな
○顔画像抽出
python main.py extract --input-dir (顔を抽出したい画像のあるフォルダのフルパス)
--output-dir (抽出した顔画像を入れるフォルダのフルパス) --detector mt --manual-fix
○抽出した顔画像のソート
python main.py sort --input-dir (抽出した顔画像を入れるフォルダのフルパス) --by face
○トレーニング
python main.py train --training-data-src-dir (変換した顔画像のあるフォルダのプルパス)
--training-data-dst-dir (身体画像から抽出した顔画像のあるフォルダのフルパス) --model-dir (モデルデータを生成したいフォルダのフルパス) --model H128
○変換
python main.py convert --input-dir (顔を抽出したい画像のあるフォルダのフルパス) --output-dir (返還後の画像を置きたいフォルダのフルパス)
--aligned-dir (身体画像から抽出した顔画像のあるフォルダのフルパス) --model-dir (モデルデータを生成したフォルダのフルパス) --model H128 --mode seamless-hist-match

実際にコマンド打つときは改行なしな

741うふ〜んNGNG
うふ〜ん

742/名無しさん[1-30].jpg2018/07/30(月) 17:17:11.09ID:la+l6G+Ja
>>740
ありがとうございます。
このヘルプはでてます。
帰ったら教えて頂いたコマンド試してみます。

743/名無しさん[1-30].jpg2018/07/30(月) 23:33:30.09ID:RcgdcSBaa
野獣先輩復活できるしsyamuさんも男優デビュー可能じゃん?
tiktokもいい素材になるからみとけよみとけよ〜

744/名無しさん[1-30].jpg2018/07/31(火) 10:58:44.67ID:Lh2S2uef0
DeepFaceLabで質問
トレーニングまでは実行されるんだけどその後の変換がうまくいかない。
変換コマンド入れると全ての画像に対して、

no faces found for 画像名, copying without faces

と出て、元がコピーされるだけ
なんででしょうか?ちなみに今epochは50K

745/名無しさん[1-30].jpg2018/07/31(火) 12:16:52.40ID:X9PkJ1xUd
>>744
--aligned-dir 
の指定がされていないのでは?

746/名無しさん[1-30].jpg2018/07/31(火) 18:16:16.39ID:be2hQHVe0
折角の技術的な流れぶった切って申し訳ないのだけど、
「高級ソープモノ」のAVには結構いい感じの主観のが多いのでおすすめ
あとトップレスやヘアヌードになるIVには良いのもあるけど寄り過ぎで使えないのも多いので注意

ソープモノで一緒に湯船に入りながら会話するシーンとか、仕上がりわかってるくせにドキドキするw

スレ汚しすまんね

747/名無しさん[1-30].jpg2018/07/31(火) 19:05:28.53ID:qzSsAWvT0
>>744
試してみたが、やはり
aligned-dirで指定しているフォルダにextraktで展開した顔画像がないと
そういうエラーが出る

748/名無しさん[1-30].jpg2018/07/31(火) 20:59:09.02ID:3/bn2HSd0
>>739
ヘルプはでました
しかしながらworkon open実行すると

C:\Users\tanaka\Downloads\DeepFaceLab-master (1)\DeepFaceLab-master>workon open
(open) C:\Users\tanaka>

これがでて終わります。。

>>740を実行してもエラーになります

749/名無しさん[1-30].jpg2018/07/31(火) 22:08:53.89ID:qzSsAWvT0
>>748
それで正しい。
その後、コマンド使って作業する。
手順は、なんかのツール使って身体素材と顔素材の動画を静止画にして、その画像から顔画像をextractで切り出し。
切り出した二つの顔画像を使ってtrainで学習。
学習したデータと身体素材の顔画像を使って身体素材にconvert。
できあがった画像を動画に変換。
という作業をするのだ。

750/名無しさん[1-30].jpg2018/07/31(火) 22:21:25.81ID:3/bn2HSd0
>>749
ありがとうございます。
あとtorrent版のもありますがこれbatファイルがずらっとならんで実行していくスタイルのようですがこれってなんなんですかね

751/名無しさん[1-30].jpg2018/07/31(火) 22:30:51.06ID:qzSsAWvT0
>>750
そっちは使ったことないのでわかりませぬ。

752/名無しさん[1-30].jpg2018/07/31(火) 22:37:04.80ID:ShIFhdxo0
>>750
torrentの方が楽だと思うぞ
ffmpegも元から入ってるから、workspaceに動画移して、data_dstもしくはdata_srcにリネームしたらbatを順番に実行していくだけ。
使い方はtextにロシア語の説明あるからgoogle翻訳。

753/名無しさん[1-30].jpg2018/07/31(火) 23:40:16.25ID:3/bn2HSd0
>>752
ありがとう  そっちもやってみます

>>740
これって(抽出した顔画像を入れるフォルダのフルパス) ←()はつけたままその中にフルパス入れる感じですか?

754/名無しさん[1-30].jpg2018/08/01(水) 04:19:18.17ID:lw9CN7To0
>>747
ありがとうございます、なんとかできました。

>>753
torrent版使ってみましたけど、こっちはかなり楽なのでいいかもしれません。

755/名無しさん[1-30].jpg2018/08/01(水) 07:12:41.57ID:xy0fPWHa0
>>753
()はいらない

756/名無しさん[1-30].jpg2018/08/01(水) 12:24:15.55ID:0lsm0EDra
>>755
ありがとう

757/名無しさん[1-30].jpg2018/08/02(木) 05:05:42.75ID:ZsTs5qmv0
すみませんDeepFaceLabの導入のことで質問です。690のコマンドプロンプトの最後のところで、

(open) c:\DeepFaceLab-master\DeepFaceLab-master>pip install -r requirements-gpu-cuda9-cudnn7.txt
を入力すると、

Collecting git+https://www.github.com/keras-team/keras-contrib.git (from -r requirements-gpu-cuda9-cudnn7.txt (line 10))
Cloning https://www.github.com/keras-team/keras-contrib.git to c:\users\own02\appdata\local\temp\pip-req-build-ppxt66t0
Error [WinError 2] 指定されたファイルが見つかりません。
while executing command git clone -q https://www.github.com/keras-team/keras-contrib.git C:\Users\own02\AppData\Local\Temp\pip-req-build-ppxt66t0
Cannot find command 'git' - do you have 'git' installed and in your PATH?

となってしまって進まないのですが、どうしたら良いでしょうか…?
分かる方いましたらよろしくお願いします

758/名無しさん[1-30].jpg2018/08/02(木) 06:27:07.80ID:BLvedolm0
>>757
すまん。メモが抜けてた。
エラーの最後にも書いてあるが、gitをインストールしないといけない。
https://gitforwindows.org/から、git for windowsをインストールして、pipを実行してくれ。

759/名無しさん[1-30].jpg2018/08/02(木) 08:14:00.41ID:ZsTs5qmv0
>>758
ありがとうございます!
ヘルプが出たので、インストールできたようです。
とりあえずいろいろ試してみようと思います。ありがとうございました!

760/名無しさん[1-30].jpg2018/08/04(土) 19:02:30.61ID:HaX3TMVp0
ラオスでダム決壊、「韓国人は全員逃げる」と中国紙
https://www.recordchina.co.jp/b628296-s0-c10-d0063.html
23日夜に決壊したのはアッタプー県で建設中の水力発電ダムで、韓国企業が建設に加わっている。
記事は数人が死亡し、行方不明者も数百人に上っていることを説明。
このほか、帰る家を失った人が6600人を超えることを伝えた。

761/名無しさん[1-30].jpg2018/08/04(土) 20:05:44.62ID:kiRct0wya

762/名無しさん[1-30].jpg2018/08/05(日) 02:48:57.37ID:AgCusnNy0
DeepFaceLabでトレーニングかけてるけど結構目線かわっちゃわない?
目元の認識が弱いのか黒目の向きが合わないことが多い

763/名無しさん[1-30].jpg2018/08/05(日) 07:18:04.15ID:eO5Cw1xx0
>>762
前に、東洋人だとみんな目を閉じてしまうからなんとかしてくれと要望が入って調整された結果だな。はまると綺麗なのができるが、失敗すると怖いのができる。

764/名無しさん[1-30].jpg2018/08/06(月) 00:02:34.96ID:BcUbsb630
すいません

眉毛が途中で切れて細くなってしまうのは対策できるのでしょうか

765/名無しさん[1-30].jpg2018/08/06(月) 14:50:46.79ID:hWkzMY+d0
試し腹(ためしばら)とは朝鮮半島で行われていたもので、
父親が結婚前の自分の娘に対し、妊娠の可・否を調べる為に性行為をする事を云う。
大韓帝国の時代まであった風習だが、日韓併合後に直ちに禁止にされた。

766/名無しさん[1-30].jpg2018/08/06(月) 23:49:58.58ID:iqUEWtYSa
声ってそろそろ出てきてるんかい?

767/名無しさん[1-30].jpg2018/08/07(火) 00:32:45.94ID:Qh2BTkuj0
声の変換ってどう考えても別の技術が必要だろ

768/名無しさん[1-30].jpg2018/08/07(火) 01:18:53.00ID:Cd6w1JTV0
>>766
昭和の頃からあるにはある
元警察の科学捜査班か何かのおじさんが開発してたような
ただ、ガチアナログだし、なにせ古いから今はロストテクノロジーになったかも
しれない
探したけどネットには情報がないな
信長の人間50年とか収録されてたカセットなんだけど

769/名無しさん[1-30].jpg2018/08/07(火) 14:19:33.29ID:TceR3TKg0
声の音程だけ合わせれば多少はましになるんだろうけど
声質って音程だけじゃないし喋り方の癖とかもあるし難しそう

770/名無しさん[1-30].jpg2018/08/07(火) 19:38:52.06ID:M89jh/qu0
そういう癖も学習できるソフトができたなら1万円までなら買う

771/名無しさん[1-30].jpg2018/08/08(水) 00:10:34.87ID:XyDOqVhX0
何個か試してみたけど、動画コラ作ったほうが満足度が高いことを実感した
動画コラだと色、大きさ、角度合わせるの大変な上に使える素材が限定されるけど、それでも顔は本人そのものだし。

772/名無しさん[1-30].jpg2018/08/08(水) 14:28:23.91ID:YgsZL2vG00808
韓国がベトナム戦争時、サイゴン(現ホーチミン)市内に韓国兵のための「トルコ風呂」(Turkish Bath)
という名称の慰安所を設置し、そこでベトナム人女性に売春させていたことが29日、
米公文書で明らかになった。韓国軍がベトナムで慰安所経営に関与していたことが、
公文書として確認されたのは初めて。韓国が朝鮮戦争時に慰安婦を「第5種補給品」として部隊に
支給していたことはすでに知られているが、外国であるベトナムでも慰安婦を運用していた実態がうかがえる。

 現代史家の秦郁彦氏「ベトナムにおける韓国軍の住民虐殺、強姦はつとに知られていたが、
その陰に隠れて慰安所経営にかかわっていたことが判明したのは、
公文書では初めてだと思う。引き続きさまざまな公文書が出てくることを期待する。
今後、米国にいるベトナム難民移住者らが声を上げる可能性もあり、
韓国に旧日本軍のことを言う資格はないという意見も出るだろう」

http://www.sankei.com/politics/news/150329/plt1503290011-n1.html

773/名無しさん[1-30].jpg2018/08/08(水) 14:30:52.83ID:YgsZL2vG00808
グローバルコリアンレイプ民国韓国人男が少女強姦し逃走先でも日本人少女を強姦韓国で未成年女児をレイプ強姦して逃走、
日本でもレイプ強姦致傷で刑を受けレイプ立国韓国に追放された50代韓国人男性が検挙。http://kimsoku.com/archives/7385268.html 

▲メディア済州 未成年者少女を常習的に凌辱レイプ性犯罪のレイプ立国韓国人男、日本でも継続しレイプ強姦犯人に
http://www.mediajeju.com/news/articleView.html?idxno=133421

【グローバルコリアンレイプ】海外売春やめない「醜い韓国人はレイプ狂い」〜世界中で498人検挙されるレイプ民国[07/26]
http://ameblo.jp/campanera/entry-10310680653.html
【グローバルコリアンレイプ】カンボジアで韓国人男性、10歳少女のヌード写真撮影で告発される凌辱レイプ立国[06/22]
http://news18.2ch.net/test/read.cgi/news4plus/1119456194/
【グローバルコリアンレイプ】フィリピン女性を買春レイプしまくり韓国系フィリピン人コピノを大量生産、レイプ立国
http://ameblo.jp/bangkokoyaji/entry-11340085126.html

774/名無しさん[1-30].jpg2018/08/08(水) 14:31:36.32ID:YgsZL2vG00808
【グローバルコリアンレイプ】中国・海南島は韓国人向け「買春天国」、買春民族韓国人男 [朝鮮日報]
http://www.asyura2.com/07/asia7/msg/690.html
【グローバルコリアンレイプ】韓国人経営者がカンボジア女性従業員に韓国人顧客との性交義務付け、レイプ立国韓国
http://yutori7.2ch.net/test/read.cgi/news4plus/1249662301/
http://www.cambodiawatch.net/cwnews/sanmen/20090807.php
【グローバルコリアンレイプ】アフリカ女性を買春レイプ強姦で韓国系アフリカ人混血私生児を大量生産、レイプ民国韓国
http://killkorea.iza.ne.jp/blog/entry/1347053/

775/名無しさん[1-30].jpg2018/08/08(水) 19:18:56.29ID:sZA7rK6G00808
これってグラボの能力が高ければ高いほど動画の質がよくなるとかってありますか?
それともグラボの能力が一定以上(1060くらい?)あればあとはかかる時間だけの問題なんでしょうか
ゲームとかしないから今までグラボとかつけたことないですけどこれだけのために買ってみたいと思ってます

776/名無しさん[1-30].jpg2018/08/08(水) 20:59:07.94ID:mOfCqTyFa0808
google colab使え

777/名無しさん[1-30].jpg2018/08/08(水) 22:05:19.05ID:fpmu9v+50
>>775
ちょっと前まではほぼ時間だけの問題だったと思ってる。1番最初のmodelデータ作るのに時間がかかるけど、あとは使い回せばそこまで時間も気にならなかった。

modelの大きさが128(faceswapのHighResとかDFLのH128やらLIAEF128,MIAEF128)も扱えるようになって、ハイスペの方が質の高いものが作れますよってのが最近の流れだと思うよ。
LIAEFやMIAEFで作ったものを見たことないからどれくらい違うかはわからんが。

778/名無しさん[1-30].jpg2018/08/08(水) 22:34:27.95ID:3rIqMGUma
>>768>>769>>770
https://www.gizmodo.jp/2018/06/lyre-bird-voice-avatar.html
動画を解析して、特定の声を偽装するってのやりてえなあ。
できねえかなあ。

779/名無しさん[1-30].jpg2018/08/08(水) 22:38:29.80ID:vX0UckcI0
DF、LIAEF、MIAEFはやってみたけど、現状使い物にならないと思う
目を閉じるのが上手く認識しないから頻繁に瞬きしたりするし
MIAEFはちらつきが酷くてとても使えないかった
現状H128がベストだと思う
GPUは今月新しいの出るみたいだから買うならもうちょっと待った方が良いかも
処理性能よりメモリサイズが出来るだけ大きいの買うのが良いと思う
1070で40%〜60%くらいしか使えてないし
8GBで安く売ってるradeonで十分なのかも

780/名無しさん[1-30].jpg2018/08/08(水) 23:27:47.91ID:fpmu9v+50
>>779
まじかー
だとするとまだ4GBでもなんとかなるな。
同じくこれ目的でコスパで選ぶなら1070の8GBだと思う

あとcolabはリソース割り当て少ないからうまくいかないって聞いたな

781/名無しさん[1-30].jpg2018/08/08(水) 23:34:19.61ID:/tj30xrU0
openfaceswapベースでcolab使ってみたけどまぁできないことはないよ
ただ途中で確認するのがめんどくさいからこれだけで作るのは骨が折れると思う

782/名無しさん[1-30].jpg2018/08/09(木) 05:33:36.99ID:+zffDboR0
>>779
RADEONだとCUDA使えないから駄目!嘘教えるな!

783/名無しさん[1-30].jpg2018/08/09(木) 12:05:42.18ID:lpS1fyEor
MIAEFが一番いい感じなんだが

784/名無しさん[1-30].jpg2018/08/10(金) 22:40:45.79ID:EHE/84Pa0
自分のとこでは、LIAEFとMIAEFは、H128よりも鮮明な画像を生成してくれるんだけど
合成がしっくりこないことが多い。あと隠れてるとこまで顔生成してしまって動画が不自然になる。
H128よりさらに変換先素材を選ぶ感じ。はまった時はかなりいい出来になるんだけど、
今のところ手軽さでH128使っちゃう。

785/名無しさん[1-30].jpg2018/08/11(土) 15:53:39.70ID:JdyRcz0p0
韓国は「売春輸出大国」 日米豪中“遠征”女性10万人超

ソウル中心部で日本人観光客相手の売春グループが摘発されるなど規制が強まる中、
若い女性が「海外旅行しながら稼げる」と日本や中国、米国、オーストラリアに“遠征売春”しているというのだ。
その数は10万人を超えるともされ、米や豪州では韓国式風俗店が目の敵に。

朝鮮日報は6月、《「性産業輸出大国」韓国の実態》という見出しの特集記事を組んだ。
その中で、日本は、韓国人が90日間ビザなしで滞在できる上、円高によって稼ぎが増えるメリットもあり
「以前から『風俗の韓流』の拠点になっている」と指摘。
東京・上野に近くラブホテルが密集するJR鶯谷周辺でデリヘルに従事する韓国人女性が少なくないと報じた。

「韓国系マッサージ店が売春の温床」と米非難、「風俗の韓流」現象は日本だけにとどまらない。
朝鮮日報は特集の中で、中国の青島や上海などでも「夜のアルバイト」に従事する韓国人留学生が増えているとも伝えた。

http://sankei.jp.msn.com/world/news/120708/kor12070807000000-n1.htm


lud20180811172053cこのスレへの固定リンク: http://2chb.net/r/ascii/1525096908/
ヒント:2chスレのurlに http://xxxx.2chb.net/xxxx のようにbを入れるだけでここでスレ保存、閲覧できます。

TOPへ TOPへ  

このエントリをはてなブックマークに追加現在登録者数177 ブックマークへ


全掲示板一覧 この掲示板へ 人気スレ | 動画:Youtube fc2 Tube8 xvideo pornhost >50 >100 >200 >300 >500 >1000枚 新着画像

 ↓「【AIコラ】fakeapp その2【革命】 [無断転載禁止]©bbspink.com YouTube動画>7本 ->画像>56枚 」を見た人も見ています:
【胸チラ】YouTubeのちょっとエロい動画【ロリ】 3->動画>149本->画像>38枚
【画像】シーメール大好き その2【動画】 ©bbspink.com ->動画>72本->画像>372枚
【画像】 テレビ番組のパンチラ 50 【動画】->動画>17本->画像>340枚
【泣きそう】悲鳴がそそる女の子の動画【責め】 [無断転載禁止]©bbspink.com ->動画>9本->画像>22枚
【時間が】女性のH画像を時限で晒したい42【勝負】 [無断転載禁止]©bbspink.com ->->画像>218枚
【胸チラ】YouTubeの素人微エロ動画【パンチラ】 ©bbspink.com ->動画>127本->画像>65枚
【胸チラ】YouTubeのちょっとエロい動画【ロリ】 2->動画>260本->画像>17枚
【チラ】picasawebのかわいい娘part19【歓迎】 ->->画像>224枚
【アイコラ】水玉コラ10【革命】 ©bbspink.com ->->画像>986枚
【丸み】尻画像part62【光沢】 ©bbspink.com ->動画>8本->画像>1418枚
【チラ】Picasa等かわいい娘や熟女 part26【歓迎】->動画>3本->画像>608枚
【ロリ】YouTubeのちょっとエロい動画【チラ等】 4 ©bbspink.com ->動画>94本->画像>37枚
【我慢】おしっこおもらし関連の動画32【失禁】 [無断転載禁止]©bbspink.com ->動画>10本->画像>57枚
【チラ】Picasa等かわいい娘や熟女 part25【歓迎】->動画>4本->画像>1281枚
【アイコラ】水玉ガラス*ロリ隔離スレ【炉利】 [無断転載禁止]©bbspink.com ->->画像>331枚
【ロリ】YouTubeのちょっとエロい動画【チラ等】 5 ©bbspink.com ->動画>72本->画像>9枚
【貝合わせ】レズ画像【ナメクジの交尾】 [無断転載禁止]©bbspink.com (7)
【画像あり】昭和の時代って「ロリコンランド」なんて雑誌が売ってたのかよ! [無断転載禁止]©2ch.net->->画像>66枚
【悲報】ナチス欅坂の悪行がイスラエルでも報道されるwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwww [無断転載禁止]©2ch.net
ハロプロ「訳」のプロデューサー石橋part561 [無断転載禁止]©2ch.net->->画像>4枚
【PC】デッドオアアライブ5LR MOD制作スレ3 [無断転載禁止]©bbspink.com ->動画>3本->画像>394枚
【アイコラ革命】 水玉コラ15 【すぐる禁止】 [無断転載禁止]©bbspink.com (59)
【マイクロビキニ】エロビキニ★3【シースルー】 [無断転載禁止]©bbspink.com (14)
【エロ歓迎】客が撮った風俗嬢の画像02【B級可】 [無断転載禁止]©bbspink.com (452)
【顔抜き】女の顔面アップで抜く【高画質】 [無断転載禁止]©bbspink.com (14)
【恥ずかしい】女の子のアナル画像 02【お尻の穴】 [転載禁止]©bbspink.com (221)
【たらこ】ぶ厚い唇のフェラ【タラコ】 (226)
エロすぎるフェラ【顔は一切気にしない】 Part.2 [無断転載禁止]©bbspink.com (12)
【ドピュ!】射精シーンが印象的な作品18【キャ!凄い】 ->動画>151本->画像>63枚
TOKIO山口達也・女子高生2名レイプ計画事件 事件当時、山口メンバーの自宅に別の男も居た? プチエンジェル案件か [522275885]->動画>2本->画像>71枚
TSPO痛いファンヲチスレ2 [無断転載禁止]©2ch.net
【画像】2541 ->動画>12本->画像>252枚
卒業アルバムでオナニー ©bbspink.com ->動画>1本->画像>251枚
卒業アルバムでオナニー 21冊目 [無断転載禁止]©bbspink.com ->->画像>212枚
ブルマでオナニー。3枚目->動画>9本->画像>79枚
卒業アルバムでオナニー 20冊目 [無断転載禁止]©bbspink.com ->動画>2本->画像>108枚
▼体育祭 授業 中高生 お薦めブルマビデオ 13作目▼ ©bbspink.com ->動画>15本->画像>110枚
【画像】 昭和の小学女児と最近の小学女児の画像が話題 これマジ?昔に戻りたい [692141681]->動画>4本->画像>78枚
【社会】岩国基地で拘束されていた米兵逃走で山口県知事「再発防止を」 ->動画>6本->画像>4枚
露出痴女画像ください Part.8 [無断転載禁止]©bbspink.com ->動画>8本->画像>269枚
ワッチョイのみ【非18禁】一般誌のエロ漫画スレ18 [無断転載禁止]©bbspink.com ->->画像>2173枚
鈴木沙彩ファンクラブPart5->動画>10本->画像>62枚
素人女性の競泳水着☆2枚目->動画>14本->画像>805枚
なあ、無印って3rd以外HD化されんのか? ->->画像>4枚
富山のヤリマン紹介してくれ!Part?->->画像>26枚
【社会】TOKIO 山口達也メンバー(46) 女子高校生に強制わいせつ容疑で書類送検★33 ->動画>32本->画像>52枚
ロリ画像交換所->->画像>4枚
麻生が辞めなきゃいけない理由を倫理的に筋を通して語れる人は存在しない説 [193847579]->->画像>5枚
ワイが淡々とあうろり画像を唐チていくスレ(主にJSJCの足と尻 [無断転載禁止]©2ch.net ->->画像>32枚
ロリ画像スレ★2 [無断転載禁止]©2ch.net ->動画>2本->画像>74枚
【動画専用】これ誰と聞けば教えてくれるスレ 227 [無断転載禁止]©bbspink.com ->動画>18本->画像>75枚
【PC】デッドオアアライブ5LR MOD質問スレ3 [無断転載禁止]©bbspink.com ->動画>3本->画像>137枚
【動画専用】これ誰と聞けば教えてくれるスレ 226 [無断転載禁止]©bbspink.com ->動画>45本->画像>68枚
【経済】始業時間8時・9時・10時、セブンHD導入へ ->->画像>4枚
【動画専用】これ誰と聞けば教えてくれるスレ 229 [無断転載禁止]©bbspink.com ->動画>17本->画像>79枚
ブルマーの思い出4 ©bbspink.com ->動画>2本->画像>85枚
死ぬほど恥ずかしそうな撫スレ 25代目 [無断転載禁止]©bbspink.com ->->画像>2237枚
羽生結弦さん、衝撃のカミングアウト [303493227]->->画像>5枚
【癒し】ラブドールで逝くよ〜Body73【嫌らし】 [無断転載禁止]©bbspink.com
中学生とやったスレ-part44->->画像>22枚
cache: - Google 讀懃エ「->->画像>11枚
小学生のストリップ->->画像>17枚
小 学 生 と S E X が し た い 60 [無断転載禁止]©2ch.net ->動画>29本->画像>976枚
【裸】ノンケのバカ騒ぎ写真105【露出】 [無断転載禁止]©bbspink.com ->動画>31本->画像>1385枚
【ゲイ】●オナニー用おかず画像162●【専用】 [無断転載禁止]©bbspink.com ->動画>22本->画像>2061枚
▼体育祭 授業 中高生 お薦めブルマビデオ 18作目▼©bbspink.com ->->画像>33枚

人気検索: 繝√Ν繝√Ν 中学生 中学生ヌード 閭ク 女子小学生裸画像 あうロリ OLのオナニ js 生足 アウロ 女子中学生エロ写メ 中高生男子
15:26:50 up 143 days, 16:36, 3 users, load average: 2.73, 2.95, 3.05

in 0.079689979553223 sec @0.079689979553223@129 on 101904