Adobe, Photoshop AI Assistant public beta와 Firefly Image Editor 신기능 공개
Original: Image editing just got smarter with AI in Photoshop and Firefly View original →
Photoshop과 Firefly에 conversational AI 확대
Adobe는 2026년 3월 10일 Photoshop과 Firefly의 image editing workflow를 크게 업데이트했다. 핵심은 Photoshop AI Assistant의 public beta 공개와 Firefly Image Editor 기능 확장이다. Adobe는 이미 Acrobat과 Adobe Express에서 AI Assistant를 운영해 왔는데, 이번에는 Photoshop까지 conversational AI를 본격적으로 연결했다. 사용자는 이제 복잡한 tool chain을 찾지 않고도 자연어로 원하는 편집 결과를 설명하고, 필요하면 단계별 가이드를 받으면서 작업을 진행할 수 있다.
Photoshop AI Assistant가 바꾸는 인터페이스
Adobe에 따르면 Photoshop AI Assistant는 web과 mobile에서 public beta로 제공된다. 사용자는 unwanted object 제거, background 변경, lighting 보정, color adjustment 같은 작업을 프롬프트로 요청할 수 있고, AI가 자동으로 수정하거나 step-by-step 방식으로 편집을 안내하도록 선택할 수 있다. 앱에서는 voice request도 지원한다. 또 Photoshop web에는 AI Assistant 기반의 AI Markup public beta가 추가돼, 이미지 위에 직접 영역을 표시하고 어떤 변화를 원하는지 텍스트로 지시할 수 있다. 이는 생성형 편집을 단순한 채팅이 아니라 정밀한 visual control과 결합하는 방향으로 확장한 것이다.
Firefly Image Editor는 multi-model 편집 허브로
동시에 Firefly Image Editor에는 Generative Fill, Generative Remove, Generative Expand, Generative Upscale, Remove Background가 추가됐다. Adobe는 이 도구들이 AI-generated image와 uploaded image 모두에 적용될 수 있다고 설명했다. 더 눈에 띄는 부분은 model choice다. Firefly 안에서 Adobe의 commercially safe model뿐 아니라 Google의 Nano Banana 2, OpenAI의 Image Generation, Runway의 Gen-4.5, Black Forest Labs의 Flux.2 [pro] 등 25개 이상의 top AI model을 선택할 수 있다고 밝혔다. 이는 Adobe가 폐쇄형 단일 모델 전략보다 creator가 원하는 모델을 workflow 안에서 선택하는 허브 전략으로 움직이고 있음을 보여준다.
과금과 의미
Adobe는 4월 9일까지 Photoshop web과 mobile 유료 구독자에게 AI Assistant 사용 시 unlimited generations를 제공하고, 무료 사용자에게는 20 free generations를 제공한다고 밝혔다. Firefly의 새 image editing 기능은 글로벌 출시가 시작됐다. 이번 발표는 Adobe가 AI를 별도 실험 기능이 아니라 핵심 creative interface로 흡수하고 있음을 보여준다. 동시에 model 다양성과 상업적 안전성, 정밀 편집 control을 함께 내세워 ChatGPT나 standalone image model과 다른 제작 환경을 구축하려는 전략으로 읽힌다.
Related Articles
Anthropic는 powerful AI가 사회에 던질 과제를 다루는 공익 조직 The Anthropic Institute를 출범시켰다. 회사는 이 조직이 technical·economic·social science 관점을 결합해 public conversation을 넓히는 역할을 맡는다고 밝혔다.
Google AI는 2026년 3월 6일 X를 통해 Nano Banana 2가 Google AI Studio와 Vertex AI의 Gemini API에서 바로 사용 가능하다고 밝혔다. 연결된 Google 글은 Nano Banana 2, 즉 Gemini 3.1 Flash Image를 실제 애플리케이션용 고품질·고속 image model로 소개한다.
Hacker News에서 크게 확산된 Anthropic-Mozilla 협업 사례는 Claude Opus 4.6가 Firefox에서 22개의 취약점을 찾고 14개가 high-severity로 분류됐다는 점을 공개했다. 핵심은 자율 마법이 아니라 verifier와 triage를 갖춘 defender workflow가 빨라진다는 데 있다.
Comments (0)
No comments yet. Be the first to comment!