
[xoo_el_inline_form active="login"]
這篇文章從「動物跳水影片怎麼生成」這個簡單問題出發,拆解目前AIGC影片生成常見的誤區。多數人誤以為只要「丟一句指令」就能讓AI幫你產生一段完美的10秒動物跳水影片,但現實上,每個AI工具(如Google Gemini、Runway、ChatGPT 4o)都有各自的限制和特性

今天有朋友問我:
「可以用 AI 生一段 10 秒的動物跳水影片嗎?用 Google Gemini、Runway 還是 ChatGPT?」
我愣了一下。
不是因為難回答,而是這個問題,真的是「現代AI人」的典型日常——工具多到分不清,想法卻還沒拆解清楚。
一般人會急著問:「哪個工具比較強?誰生成最好?」
但現在各種 AIGC 工具百花齊放,每天都在進化與變化,一眨眼王者就換人了:
我的實戰流程其實是這樣:
ChatGPT 想腳本/Prompt → Midjourney 生畫面/短動畫 → Canva補音效
(偶爾也會試試 Gemini、Runway 各家最新功能)
但我總會提醒自己——
「工具選擇不是第一步,關鍵是你想像的畫面夠不夠清楚?」
你問「我要一段動物跳水影片」,實際再拆解會有以下細節:
如果「資訊不夠,模型就只能瞎猜」。
這就像跟一個外國朋友說:「你能不能畫一幅自由?」
每個人腦海畫面都不一樣。
很多朋友者會抱怨:「為什麼我說了,它做出來卻怪怪的?」
但多數背後的原因來自於能不能把需求講清楚?
真正會用AIGC的人,常常不是一開始就丟大需求,而是這樣練習:
如果我現在要生出一段「跳水企鵝動畫」影片,我就會透過對話去生成以下指令,調整指令並滿足我需求,再提供給模型執行 :
Scene 1: A sun-lit icy lagoon at sunrise, gentle mist rising off the water.
Scene 2: A neat line of five emperor penguins on a snowy wooden platform. Each penguin, in exact order, puts on sleek reflective swim goggles, pausing briefly to adjust. Scene 3: Low-angle tracking shot from left to right. Each penguin dives gracefully in slow motion (24 fps), creating enormous sparkling splashes with realistic water caustics. Teal-orange cinematic colour grade, whimsical piano melody faintly audible. 10-second clip, 1080 p resolution.
然後再問:「你覺得這樣能讓 AI 生出什麼感覺?」
現在只要肯拆細節,Gemini、Sora、Midjourney 幾乎都能「生」出東西來,
但最後「滿不滿意」完全取決於你能不能說清楚你要什麼。
你如果只丟一句「我要動物跳水影片」,AI 會「照辦」,但你九成不會滿意。
開始詢問「怎麼做才會變成我想要的樣子?」
這才是啟動與AI協作的關鍵。
感謝這位朋友的提問。
有時答案不難,難的是學會怎麼「拆解需求」、「問出好問題」。
每次練習拆解,都是自己和AI一起進步的過程
我們都還在學、還在試、還在錯,
但每一個「可以問」的時候,本身就已經很棒了。
附上同一個指令,給 Gemini、Sora、Midjourney 生成的影片,你能分得出誰生的嗎?
還是說,其實重點早就不是工具了?
#AI怎麼想
#每個問題都是最好的起點
#說人話讓懶人也能秒用AI