আপনি আপনার দেওয়া ইমেজ ফাইলগুলো ইনলাইন (বেস৬৪-এনকোডেড) অথবা ইউআরএল-এর মাধ্যমে বিশ্লেষণ করার জন্য একটি জেমিনি মডেলকে অনুরোধ করতে পারেন। যখন আপনি ফায়ারবেস এআই লজিক ব্যবহার করেন, তখন আপনি সরাসরি আপনার অ্যাপ থেকে এই অনুরোধটি করতে পারেন।
এই সক্ষমতা দিয়ে আপনি নিম্নলিখিত কাজগুলো করতে পারবেন:
- ছবি সম্পর্কে ক্যাপশন তৈরি করুন বা প্রশ্নের উত্তর দিন।
- একটি ছবি নিয়ে একটি ছোট গল্প বা কবিতা লিখুন।
- ছবিতে থাকা বস্তুগুলো শনাক্ত করুন এবং সেগুলোর বাউন্ডিং বক্স স্থানাঙ্ক ফেরত দিন।
- ভাব, শৈলী বা অন্য কোনো বৈশিষ্ট্যের ভিত্তিতে একগুচ্ছ ছবিকে চিহ্নিত বা শ্রেণিবদ্ধ করুন।
কোড যান। স্ট্রিম করা প্রতিক্রিয়াগুলির জন্য কোডে যান
| ছবি নিয়ে কাজ করার অতিরিক্ত বিকল্পের জন্য অন্যান্য নির্দেশিকা দেখুন। কাঠামোগত আউটপুট তৈরি করুন একাধিক পালা চ্যাট ডিভাইসে ছবি বিশ্লেষণ করুন ছবি তৈরি করুন |
শুরু করার আগে
এই পৃষ্ঠায় প্রদানকারী-নির্দিষ্ট বিষয়বস্তু এবং কোড দেখতে আপনার জেমিনি এপিআই প্রদানকারীর উপর ক্লিক করুন। |
যদি আপনি ইতিমধ্যে তা না করে থাকেন, তাহলে ‘ গেটিং স্টার্টেড গাইড’টি সম্পূর্ণ করুন, যেখানে আপনার Firebase প্রজেক্ট সেট আপ করা, আপনার অ্যাপকে Firebase-এর সাথে সংযুক্ত করা, SDK যোগ করা, আপনার নির্বাচিত Gemini API প্রোভাইডারের জন্য ব্যাকএন্ড সার্ভিস ইনিশিয়ালাইজ করা এবং একটি GenerativeModel ইনস্ট্যান্স তৈরি করার পদ্ধতি বর্ণনা করা হয়েছে।
আপনি
image/jpegMIME টাইপের এই সর্বজনীনভাবে উপলব্ধ ফাইলটি ব্যবহার করতে পারেন ( ফাইলটি দেখুন বা ডাউনলোড করুন )।https://storage.googleapis.com/cloud-samples-data/generative-ai/image/scones.jpg
ইমেজ ফাইল থেকে টেক্সট তৈরি করুন (বেস৬৪-এনকোডেড)
| এই নমুনাটি চেষ্টা করার আগে, আপনার প্রজেক্ট ও অ্যাপ সেট আপ করার জন্য এই গাইডের ' শুরু করার আগে ' অংশটি সম্পূর্ণ করুন। সেই বিভাগে, আপনি আপনার নির্বাচিত জেমিনি এপিআই প্রোভাইডারের জন্য একটি বোতামেও ক্লিক করবেন, যাতে আপনি এই পৃষ্ঠায় প্রোভাইডার-নির্দিষ্ট বিষয়বস্তু দেখতে পান । |
আপনি প্রতিটি ইনপুট ফাইলের mimeType এবং ফাইলটির নাম উল্লেখ করে টেক্সট ও ছবি দিয়ে একটি জেমিনি মডেলকে টেক্সট তৈরি করতে বলতে পারেন। এই পৃষ্ঠার পরবর্তী অংশে ইনপুট ফাইলের জন্য প্রয়োজনীয়তা ও সুপারিশসমূহ খুঁজে নিন।
সুইফট
টেক্সট এবং ছবির মাল্টিমোডাল ইনপুট থেকে টেক্সট তৈরি করতে আপনি generateContent() কল করতে পারেন।
একক ফাইল ইনপুট
import FirebaseAILogic
// Initialize the Gemini Developer API backend service
let ai = FirebaseAI.firebaseAI(backend: .googleAI())
// Create a `GenerativeModel` instance with a model that supports your use case
let model = ai.generativeModel(modelName: "gemini-3-flash-preview")
guard let image = UIImage(systemName: "bicycle") else { fatalError() }
// Provide a text prompt to include with the image
let prompt = "What's in this picture?"
// To generate text output, call generateContent and pass in the prompt
let response = try await model.generateContent(image, prompt)
print(response.text ?? "No text in response.")
একাধিক ফাইল ইনপুট
import FirebaseAILogic
// Initialize the Gemini Developer API backend service
let ai = FirebaseAI.firebaseAI(backend: .googleAI())
// Create a `GenerativeModel` instance with a model that supports your use case
let model = ai.generativeModel(modelName: "gemini-3-flash-preview")
guard let image1 = UIImage(systemName: "car") else { fatalError() }
guard let image2 = UIImage(systemName: "car.2") else { fatalError() }
// Provide a text prompt to include with the images
let prompt = "What's different between these pictures?"
// To generate text output, call generateContent and pass in the prompt
let response = try await model.generateContent(image1, image2, prompt)
print(response.text ?? "No text in response.")
Kotlin
টেক্সট এবং ছবির মাল্টিমোডাল ইনপুট থেকে টেক্সট তৈরি করতে আপনি generateContent() কল করতে পারেন।
একক ফাইল ইনপুট
// Initialize the Gemini Developer API backend service
// Create a `GenerativeModel` instance with a model that supports your use case
val model = Firebase.ai(backend = GenerativeBackend.googleAI())
.generativeModel("gemini-3-flash-preview")
// Loads an image from the app/res/drawable/ directory
val bitmap: Bitmap = BitmapFactory.decodeResource(resources, R.drawable.sparky)
// Provide a prompt that includes the image specified above and text
val prompt = content {
image(bitmap)
text("What developer tool is this mascot from?")
}
// To generate text output, call generateContent with the prompt
val response = model.generateContent(prompt)
print(response.text)
একাধিক ফাইল ইনপুট
কোটলিনের ক্ষেত্রে, এই SDK-এর মেথডগুলো হলো সাসপেন্ড ফাংশন এবং এগুলোকে একটি Coroutine স্কোপ থেকে কল করতে হবে।
// Initialize the Gemini Developer API backend service
// Create a `GenerativeModel` instance with a model that supports your use case
val model = Firebase.ai(backend = GenerativeBackend.googleAI())
.generativeModel("gemini-3-flash-preview")
// Loads an image from the app/res/drawable/ directory
val bitmap1: Bitmap = BitmapFactory.decodeResource(resources, R.drawable.sparky)
val bitmap2: Bitmap = BitmapFactory.decodeResource(resources, R.drawable.sparky_eats_pizza)
// Provide a prompt that includes the images specified above and text
val prompt = content {
image(bitmap1)
image(bitmap2)
text("What is different between these pictures?")
}
// To generate text output, call generateContent with the prompt
val response = model.generateContent(prompt)
print(response.text)
Java
টেক্সট এবং ছবির মাল্টিমোডাল ইনপুট থেকে টেক্সট তৈরি করতে আপনি generateContent() কল করতে পারেন।
ListenableFuture রিটার্ন করে। একক ফাইল ইনপুট
// Initialize the Gemini Developer API backend service
// Create a `GenerativeModel` instance with a model that supports your use case
GenerativeModel ai = FirebaseAI.getInstance(GenerativeBackend.googleAI())
.generativeModel("gemini-3-flash-preview");
// Use the GenerativeModelFutures Java compatibility layer which offers
// support for ListenableFuture and Publisher APIs
GenerativeModelFutures model = GenerativeModelFutures.from(ai);
Bitmap bitmap = BitmapFactory.decodeResource(getResources(), R.drawable.sparky);
// Provide a prompt that includes the image specified above and text
Content content = new Content.Builder()
.addImage(bitmap)
.addText("What developer tool is this mascot from?")
.build();
// To generate text output, call generateContent with the prompt
ListenableFuture<GenerateContentResponse> response = model.generateContent(content);
Futures.addCallback(response, new FutureCallback<GenerateContentResponse>() {
@Override
public void onSuccess(GenerateContentResponse result) {
String resultText = result.getText();
System.out.println(resultText);
}
@Override
public void onFailure(Throwable t) {
t.printStackTrace();
}
}, executor);
একাধিক ফাইল ইনপুট
// Initialize the Gemini Developer API backend service
// Create a `GenerativeModel` instance with a model that supports your use case
GenerativeModel ai = FirebaseAI.getInstance(GenerativeBackend.googleAI())
.generativeModel("gemini-3-flash-preview");
// Use the GenerativeModelFutures Java compatibility layer which offers
// support for ListenableFuture and Publisher APIs
GenerativeModelFutures model = GenerativeModelFutures.from(ai);
Bitmap bitmap1 = BitmapFactory.decodeResource(getResources(), R.drawable.sparky);
Bitmap bitmap2 = BitmapFactory.decodeResource(getResources(), R.drawable.sparky_eats_pizza);
// Provide a prompt that includes the images specified above and text
Content prompt = new Content.Builder()
.addImage(bitmap1)
.addImage(bitmap2)
.addText("What's different between these pictures?")
.build();
// To generate text output, call generateContent with the prompt
ListenableFuture<GenerateContentResponse> response = model.generateContent(prompt);
Futures.addCallback(response, new FutureCallback<GenerateContentResponse>() {
@Override
public void onSuccess(GenerateContentResponse result) {
String resultText = result.getText();
System.out.println(resultText);
}
@Override
public void onFailure(Throwable t) {
t.printStackTrace();
}
}, executor);
Web
টেক্সট এবং ছবির মাল্টিমোডাল ইনপুট থেকে টেক্সট তৈরি করতে আপনি generateContent() কল করতে পারেন।
একক ফাইল ইনপুট
import { initializeApp } from "firebase/app";
import { getAI, getGenerativeModel, GoogleAIBackend } from "firebase/ai";
// TODO(developer) Replace the following with your app's Firebase configuration
// See: https://firebase.google.com/docs/web/learn-more#config-object
const firebaseConfig = {
// ...
};
// Initialize FirebaseApp
const firebaseApp = initializeApp(firebaseConfig);
// Initialize the Gemini Developer API backend service
const ai = getAI(firebaseApp, { backend: new GoogleAIBackend() });
// Create a `GenerativeModel` instance with a model that supports your use case
const model = getGenerativeModel(ai, { model: "gemini-3-flash-preview" });
// Converts a File object to a Part object.
async function fileToGenerativePart(file) {
const base64EncodedDataPromise = new Promise((resolve) => {
const reader = new FileReader();
reader.onloadend = () => resolve(reader.result.split(',')[1]);
reader.readAsDataURL(file);
});
return {
inlineData: { data: await base64EncodedDataPromise, mimeType: file.type },
};
}
async function run() {
// Provide a text prompt to include with the image
const prompt = "What do you see?";
const fileInputEl = document.querySelector("input[type=file]");
const imagePart = await fileToGenerativePart(fileInputEl.files[0]);
// To generate text output, call generateContent with the text and image
const result = await model.generateContent([prompt, imagePart]);
const response = result.response;
const text = response.text();
console.log(text);
}
run();
একাধিক ফাইল ইনপুট
import { initializeApp } from "firebase/app";
import { getAI, getGenerativeModel, GoogleAIBackend } from "firebase/ai";
// TODO(developer) Replace the following with your app's Firebase configuration
// See: https://firebase.google.com/docs/web/learn-more#config-object
const firebaseConfig = {
// ...
};
// Initialize FirebaseApp
const firebaseApp = initializeApp(firebaseConfig);
// Initialize the Gemini Developer API backend service
const ai = getAI(firebaseApp, { backend: new GoogleAIBackend() });
// Create a `GenerativeModel` instance with a model that supports your use case
const model = getGenerativeModel(ai, { model: "gemini-3-flash-preview" });
// Converts a File object to a Part object.
async function fileToGenerativePart(file) {
const base64EncodedDataPromise = new Promise((resolve) => {
const reader = new FileReader();
reader.onloadend = () => resolve(reader.result.split(',')[1]);
reader.readAsDataURL(file);
});
return {
inlineData: { data: await base64EncodedDataPromise, mimeType: file.type },
};
}
async function run() {
// Provide a text prompt to include with the images
const prompt = "What's different between these pictures?";
// Prepare images for input
const fileInputEl = document.querySelector("input[type=file]");
const imageParts = await Promise.all(
[...fileInputEl.files].map(fileToGenerativePart)
);
// To generate text output, call generateContent with the text and images
const result = await model.generateContent([prompt, ...imageParts]);
const response = result.response;
const text = response.text();
console.log(text);
}
run();
Dart
টেক্সট এবং ছবির মাল্টিমোডাল ইনপুট থেকে টেক্সট তৈরি করতে আপনি generateContent() কল করতে পারেন।
একক ফাইল ইনপুট
import 'package:firebase_ai/firebase_ai.dart';
import 'package:firebase_core/firebase_core.dart';
import 'firebase_options.dart';
// Initialize FirebaseApp
await Firebase.initializeApp(
options: DefaultFirebaseOptions.currentPlatform,
);
// Initialize the Gemini Developer API backend service
// Create a `GenerativeModel` instance with a model that supports your use case
final model =
FirebaseAI.googleAI().generativeModel(model: 'gemini-3-flash-preview');
// Provide a text prompt to include with the image
final prompt = TextPart("What's in the picture?");
// Prepare images for input
final image = await File('image0.jpg').readAsBytes();
final imagePart = InlineDataPart('image/jpeg', image);
// To generate text output, call generateContent with the text and image
final response = await model.generateContent([
Content.multi([prompt,imagePart])
]);
print(response.text);
একাধিক ফাইল ইনপুট
import 'package:firebase_ai/firebase_ai.dart';
import 'package:firebase_core/firebase_core.dart';
import 'firebase_options.dart';
// Initialize FirebaseApp
await Firebase.initializeApp(
options: DefaultFirebaseOptions.currentPlatform,
);
// Initialize the Gemini Developer API backend service
// Create a `GenerativeModel` instance with a model that supports your use case
final model =
FirebaseAI.googleAI().generativeModel(model: 'gemini-3-flash-preview');
final (firstImage, secondImage) = await (
File('image0.jpg').readAsBytes(),
File('image1.jpg').readAsBytes()
).wait;
// Provide a text prompt to include with the images
final prompt = TextPart("What's different between these pictures?");
// Prepare images for input
final imageParts = [
InlineDataPart('image/jpeg', firstImage),
InlineDataPart('image/jpeg', secondImage),
];
// To generate text output, call generateContent with the text and images
final response = await model.generateContent([
Content.multi([prompt, ...imageParts])
]);
print(response.text);
ঐক্য
টেক্সট এবং ছবির মাল্টিমোডাল ইনপুট থেকে টেক্সট তৈরি করতে আপনি GenerateContentAsync() কল করতে পারেন।
একক ফাইল ইনপুট
using Firebase;
using Firebase.AI;
// Initialize the Gemini Developer API backend service
var ai = FirebaseAI.GetInstance(FirebaseAI.Backend.GoogleAI());
// Create a `GenerativeModel` instance with a model that supports your use case
var model = ai.GetGenerativeModel(modelName: "gemini-3-flash-preview");
// Convert a Texture2D into InlineDataParts
var grayImage = ModelContent.InlineData("image/png",
UnityEngine.ImageConversion.EncodeToPNG(UnityEngine.Texture2D.grayTexture));
// Provide a text prompt to include with the image
var prompt = ModelContent.Text("What's in this picture?");
// To generate text output, call GenerateContentAsync and pass in the prompt
var response = await model.GenerateContentAsync(new [] { grayImage, prompt });
UnityEngine.Debug.Log(response.Text ?? "No text in response.");
একাধিক ফাইল ইনপুট
using Firebase;
using Firebase.AI;
// Initialize the Gemini Developer API backend service
var ai = FirebaseAI.GetInstance(FirebaseAI.Backend.GoogleAI());
// Create a `GenerativeModel` instance with a model that supports your use case
var model = ai.GetGenerativeModel(modelName: "gemini-3-flash-preview");
// Convert Texture2Ds into InlineDataParts
var blackImage = ModelContent.InlineData("image/png",
UnityEngine.ImageConversion.EncodeToPNG(UnityEngine.Texture2D.blackTexture));
var whiteImage = ModelContent.InlineData("image/png",
UnityEngine.ImageConversion.EncodeToPNG(UnityEngine.Texture2D.whiteTexture));
// Provide a text prompt to include with the images
var prompt = ModelContent.Text("What's different between these pictures?");
// To generate text output, call GenerateContentAsync and pass in the prompt
var response = await model.GenerateContentAsync(new [] { blackImage, whiteImage, prompt });
UnityEngine.Debug.Log(response.Text ?? "No text in response.");
কীভাবে একটি মডেল বেছে নিতে হয় তা জানুনআপনার ব্যবহারের ক্ষেত্র এবং অ্যাপের জন্য উপযুক্ত।
প্রতিক্রিয়াটি স্ট্রিম করুন
| এই নমুনাটি চেষ্টা করার আগে, আপনার প্রজেক্ট ও অ্যাপ সেট আপ করার জন্য এই গাইডের ' শুরু করার আগে ' অংশটি সম্পূর্ণ করুন। সেই বিভাগে, আপনি আপনার নির্বাচিত জেমিনি এপিআই প্রোভাইডারের জন্য একটি বোতামেও ক্লিক করবেন, যাতে আপনি এই পৃষ্ঠায় প্রোভাইডার-নির্দিষ্ট বিষয়বস্তু দেখতে পান । |
মডেল জেনারেশনের সম্পূর্ণ ফলাফলের জন্য অপেক্ষা না করে, তার পরিবর্তে আংশিক ফলাফল হ্যান্ডেল করার জন্য স্ট্রিমিং ব্যবহার করে আপনি আরও দ্রুত ইন্টারঅ্যাকশন অর্জন করতে পারেন। রেসপন্সটি স্ট্রিম করতে, generateContentStream কল করুন।
সুইফট
টেক্সট এবং ছবির মাল্টিমোডাল ইনপুট থেকে তৈরি করা টেক্সট স্ট্রিম করতে আপনি generateContentStream() কল করতে পারেন।
একক ফাইল ইনপুট
import FirebaseAILogic
// Initialize the Gemini Developer API backend service
let ai = FirebaseAI.firebaseAI(backend: .googleAI())
// Create a `GenerativeModel` instance with a model that supports your use case
let model = ai.generativeModel(modelName: "gemini-3-flash-preview")
guard let image = UIImage(systemName: "bicycle") else { fatalError() }
// Provide a text prompt to include with the image
let prompt = "What's in this picture?"
// To stream generated text output, call generateContentStream and pass in the prompt
let contentStream = try model.generateContentStream(image, prompt)
for try await chunk in contentStream {
if let text = chunk.text {
print(text)
}
}
একাধিক ফাইল ইনপুট
import FirebaseAILogic
// Initialize the Gemini Developer API backend service
let ai = FirebaseAI.firebaseAI(backend: .googleAI())
// Create a `GenerativeModel` instance with a model that supports your use case
let model = ai.generativeModel(modelName: "gemini-3-flash-preview")
guard let image1 = UIImage(systemName: "car") else { fatalError() }
guard let image2 = UIImage(systemName: "car.2") else { fatalError() }
// Provide a text prompt to include with the images
let prompt = "What's different between these pictures?"
// To stream generated text output, call generateContentStream and pass in the prompt
let contentStream = try model.generateContentStream(image1, image2, prompt)
for try await chunk in contentStream {
if let text = chunk.text {
print(text)
}
}
Kotlin
টেক্সট এবং ছবির মাল্টিমোডাল ইনপুট থেকে তৈরি করা টেক্সট স্ট্রিম করতে আপনি generateContentStream() কল করতে পারেন।
একক ফাইল ইনপুট
// Initialize the Gemini Developer API backend service
// Create a `GenerativeModel` instance with a model that supports your use case
val model = Firebase.ai(backend = GenerativeBackend.googleAI())
.generativeModel("gemini-3-flash-preview")
// Loads an image from the app/res/drawable/ directory
val bitmap: Bitmap = BitmapFactory.decodeResource(resources, R.drawable.sparky)
// Provide a prompt that includes the image specified above and text
val prompt = content {
image(bitmap)
text("What developer tool is this mascot from?")
}
// To stream generated text output, call generateContentStream with the prompt
var fullResponse = ""
model.generateContentStream(prompt).collect { chunk ->
print(chunk.text)
fullResponse += chunk.text
}
একাধিক ফাইল ইনপুট
// Initialize the Gemini Developer API backend service
// Create a `GenerativeModel` instance with a model that supports your use case
val model = Firebase.ai(backend = GenerativeBackend.googleAI())
.generativeModel("gemini-3-flash-preview")
// Loads an image from the app/res/drawable/ directory
val bitmap1: Bitmap = BitmapFactory.decodeResource(resources, R.drawable.sparky)
val bitmap2: Bitmap = BitmapFactory.decodeResource(resources, R.drawable.sparky_eats_pizza)
// Provide a prompt that includes the images specified above and text
val prompt = content {
image(bitmap1)
image(bitmap2)
text("What's different between these pictures?")
}
// To stream generated text output, call generateContentStream with the prompt
var fullResponse = ""
model.generateContentStream(prompt).collect { chunk ->
print(chunk.text)
fullResponse += chunk.text
}
Java
টেক্সট এবং ছবির মাল্টিমোডাল ইনপুট থেকে তৈরি করা টেক্সট স্ট্রিম করতে আপনি generateContentStream() কল করতে পারেন।
Publisher টাইপ রিটার্ন করে। একক ফাইল ইনপুট
// Initialize the Gemini Developer API backend service
// Create a `GenerativeModel` instance with a model that supports your use case
GenerativeModel ai = FirebaseAI.getInstance(GenerativeBackend.googleAI())
.generativeModel("gemini-3-flash-preview");
// Use the GenerativeModelFutures Java compatibility layer which offers
// support for ListenableFuture and Publisher APIs
GenerativeModelFutures model = GenerativeModelFutures.from(ai);
Bitmap bitmap = BitmapFactory.decodeResource(getResources(), R.drawable.sparky);
// Provide a prompt that includes the image specified above and text
Content prompt = new Content.Builder()
.addImage(bitmap)
.addText("What developer tool is this mascot from?")
.build();
// To stream generated text output, call generateContentStream with the prompt
Publisher<GenerateContentResponse> streamingResponse = model.generateContentStream(prompt);
final String[] fullResponse = {""};
streamingResponse.subscribe(new Subscriber<GenerateContentResponse>() {
@Override
public void onNext(GenerateContentResponse generateContentResponse) {
String chunk = generateContentResponse.getText();
fullResponse[0] += chunk;
}
@Override
public void onComplete() {
System.out.println(fullResponse[0]);
}
@Override
public void onError(Throwable t) {
t.printStackTrace();
}
@Override
public void onSubscribe(Subscription s) {
}
});
একাধিক ফাইল ইনপুট
// Initialize the Gemini Developer API backend service
// Create a `GenerativeModel` instance with a model that supports your use case
GenerativeModel ai = FirebaseAI.getInstance(GenerativeBackend.googleAI())
.generativeModel("gemini-3-flash-preview");
// Use the GenerativeModelFutures Java compatibility layer which offers
// support for ListenableFuture and Publisher APIs
GenerativeModelFutures model = GenerativeModelFutures.from(ai);
Bitmap bitmap1 = BitmapFactory.decodeResource(getResources(), R.drawable.sparky);
Bitmap bitmap2 = BitmapFactory.decodeResource(getResources(), R.drawable.sparky_eats_pizza);
// Provide a prompt that includes the images specified above and text
Content prompt = new Content.Builder()
.addImage(bitmap1)
.addImage(bitmap2)
.addText("What's different between these pictures?")
.build();
// To stream generated text output, call generateContentStream with the prompt
Publisher<GenerateContentResponse> streamingResponse = model.generateContentStream(prompt);
final String[] fullResponse = {""};
streamingResponse.subscribe(new Subscriber<GenerateContentResponse>() {
@Override
public void onNext(GenerateContentResponse generateContentResponse) {
String chunk = generateContentResponse.getText();
fullResponse[0] += chunk;
}
@Override
public void onComplete() {
System.out.println(fullResponse[0]);
}
@Override
public void onError(Throwable t) {
t.printStackTrace();
}
@Override
public void onSubscribe(Subscription s) {
}
});
Web
টেক্সট এবং ছবির মাল্টিমোডাল ইনপুট থেকে তৈরি করা টেক্সট স্ট্রিম করতে আপনি generateContentStream() কল করতে পারেন।
একক ফাইল ইনপুট
import { initializeApp } from "firebase/app";
import { getAI, getGenerativeModel, GoogleAIBackend } from "firebase/ai";
// TODO(developer) Replace the following with your app's Firebase configuration
// See: https://firebase.google.com/docs/web/learn-more#config-object
const firebaseConfig = {
// ...
};
// Initialize FirebaseApp
const firebaseApp = initializeApp(firebaseConfig);
// Initialize the Gemini Developer API backend service
const ai = getAI(firebaseApp, { backend: new GoogleAIBackend() });
// Create a `GenerativeModel` instance with a model that supports your use case
const model = getGenerativeModel(ai, { model: "gemini-3-flash-preview" });
// Converts a File object to a Part object.
async function fileToGenerativePart(file) {
const base64EncodedDataPromise = new Promise((resolve) => {
const reader = new FileReader();
reader.onloadend = () => resolve(reader.result.split(',')[1]);
reader.readAsDataURL(file);
});
return {
inlineData: { data: await base64EncodedDataPromise, mimeType: file.type },
};
}
async function run() {
// Provide a text prompt to include with the image
const prompt = "What do you see?";
// Prepare image for input
const fileInputEl = document.querySelector("input[type=file]");
const imagePart = await fileToGenerativePart(fileInputEl.files[0]);
// To stream generated text output, call generateContentStream with the text and image
const result = await model.generateContentStream([prompt, imagePart]);
for await (const chunk of result.stream) {
const chunkText = chunk.text();
console.log(chunkText);
}
}
run();
একাধিক ফাইল ইনপুট
import { initializeApp } from "firebase/app";
import { getAI, getGenerativeModel, GoogleAIBackend } from "firebase/ai";
// TODO(developer) Replace the following with your app's Firebase configuration
// See: https://firebase.google.com/docs/web/learn-more#config-object
const firebaseConfig = {
// ...
};
// Initialize FirebaseApp
const firebaseApp = initializeApp(firebaseConfig);
// Initialize the Gemini Developer API backend service
const ai = getAI(firebaseApp, { backend: new GoogleAIBackend() });
// Create a `GenerativeModel` instance with a model that supports your use case
const model = getGenerativeModel(ai, { model: "gemini-3-flash-preview" });
// Converts a File object to a Part object.
async function fileToGenerativePart(file) {
const base64EncodedDataPromise = new Promise((resolve) => {
const reader = new FileReader();
reader.onloadend = () => resolve(reader.result.split(',')[1]);
reader.readAsDataURL(file);
});
return {
inlineData: { data: await base64EncodedDataPromise, mimeType: file.type },
};
}
async function run() {
// Provide a text prompt to include with the images
const prompt = "What's different between these pictures?";
const fileInputEl = document.querySelector("input[type=file]");
const imageParts = await Promise.all(
[...fileInputEl.files].map(fileToGenerativePart)
);
// To stream generated text output, call generateContentStream with the text and images
const result = await model.generateContentStream([prompt, ...imageParts]);
for await (const chunk of result.stream) {
const chunkText = chunk.text();
console.log(chunkText);
}
}
run();
Dart
টেক্সট এবং ছবির মাল্টিমোডাল ইনপুট থেকে তৈরি করা টেক্সট স্ট্রিম করতে আপনি generateContentStream() কল করতে পারেন।
একক ফাইল ইনপুট
import 'package:firebase_ai/firebase_ai.dart';
import 'package:firebase_core/firebase_core.dart';
import 'firebase_options.dart';
// Initialize FirebaseApp
await Firebase.initializeApp(
options: DefaultFirebaseOptions.currentPlatform,
);
// Initialize the Gemini Developer API backend service
// Create a `GenerativeModel` instance with a model that supports your use case
final model =
FirebaseAI.googleAI().generativeModel(model: 'gemini-3-flash-preview');
// Provide a text prompt to include with the image
final prompt = TextPart("What's in the picture?");
// Prepare images for input
final image = await File('image0.jpg').readAsBytes();
final imagePart = InlineDataPart('image/jpeg', image);
// To stream generated text output, call generateContentStream with the text and image
final response = await model.generateContentStream([
Content.multi([prompt,imagePart])
]);
await for (final chunk in response) {
print(chunk.text);
}
একাধিক ফাইল ইনপুট
import 'package:firebase_ai/firebase_ai.dart';
import 'package:firebase_core/firebase_core.dart';
import 'firebase_options.dart';
// Initialize FirebaseApp
await Firebase.initializeApp(
options: DefaultFirebaseOptions.currentPlatform,
);
// Initialize the Gemini Developer API backend service
// Create a `GenerativeModel` instance with a model that supports your use case
final model =
FirebaseAI.googleAI().generativeModel(model: 'gemini-3-flash-preview');
final (firstImage, secondImage) = await (
File('image0.jpg').readAsBytes(),
File('image1.jpg').readAsBytes()
).wait;
// Provide a text prompt to include with the images
final prompt = TextPart("What's different between these pictures?");
// Prepare images for input
final imageParts = [
InlineDataPart('image/jpeg', firstImage),
InlineDataPart('image/jpeg', secondImage),
];
// To stream generated text output, call generateContentStream with the text and images
final response = await model.generateContentStream([
Content.multi([prompt, ...imageParts])
]);
await for (final chunk in response) {
print(chunk.text);
}
ঐক্য
টেক্সট এবং ছবির মাল্টিমোডাল ইনপুট থেকে তৈরি করা টেক্সট স্ট্রিম করতে আপনি GenerateContentStreamAsync() কল করতে পারেন।
একক ফাইল ইনপুট
using Firebase;
using Firebase.AI;
// Initialize the Gemini Developer API backend service
var ai = FirebaseAI.GetInstance(FirebaseAI.Backend.GoogleAI());
// Create a `GenerativeModel` instance with a model that supports your use case
var model = ai.GetGenerativeModel(modelName: "gemini-3-flash-preview");
// Convert a Texture2D into InlineDataParts
var gray = ModelContent.InlineData("image/png",
UnityEngine.ImageConversion.EncodeToPNG(UnityEngine.Texture2D.grayTexture));
// Provide a text prompt to include with the image
var prompt = ModelContent.Text("What's in this picture?");
// To stream generated text output, call GenerateContentStreamAsync and pass in the prompt
var responseStream = model.GenerateContentStreamAsync(new [] { gray, prompt });
await foreach (var response in responseStream) {
if (!string.IsNullOrWhiteSpace(response.Text)) {
UnityEngine.Debug.Log(response.Text);
}
}
একাধিক ফাইল ইনপুট
using Firebase;
using Firebase.AI;
// Initialize the Gemini Developer API backend service
var ai = FirebaseAI.GetInstance(FirebaseAI.Backend.GoogleAI());
// Create a `GenerativeModel` instance with a model that supports your use case
var model = ai.GetGenerativeModel(modelName: "gemini-3-flash-preview");
// Convert Texture2Ds into InlineDataParts
var black = ModelContent.InlineData("image/png",
UnityEngine.ImageConversion.EncodeToPNG(UnityEngine.Texture2D.blackTexture));
var white = ModelContent.InlineData("image/png",
UnityEngine.ImageConversion.EncodeToPNG(UnityEngine.Texture2D.whiteTexture));
// Provide a text prompt to include with the images
var prompt = ModelContent.Text("What's different between these pictures?");
// To stream generated text output, call GenerateContentStreamAsync and pass in the prompt
var responseStream = model.GenerateContentStreamAsync(new [] { black, white, prompt });
await foreach (var response in responseStream) {
if (!string.IsNullOrWhiteSpace(response.Text)) {
UnityEngine.Debug.Log(response.Text);
}
}
কীভাবে একটি মডেল বেছে নিতে হয় তা জানুনআপনার ব্যবহারের ক্ষেত্র এবং অ্যাপের জন্য উপযুক্ত।
ইনপুট ইমেজ ফাইলের জন্য প্রয়োজনীয়তা এবং সুপারিশসমূহ
মনে রাখবেন যে, ইনলাইন ডেটা হিসেবে দেওয়া কোনো ফাইল স্থানান্তরের সময় বেস৬৪-এ এনকোড করা হয়, যা রিকোয়েস্টের আকার বাড়িয়ে দেয়। রিকোয়েস্টটি অতিরিক্ত বড় হলে আপনি একটি HTTP 413 এরর পাবেন।
নিম্নলিখিত বিষয়গুলো সম্পর্কে বিস্তারিত তথ্য জানতে 'সমর্থিত ইনপুট ফাইল এবং প্রয়োজনীয়তা' পৃষ্ঠাটি দেখুন:
- অনুরোধে ফাইল দেওয়ার বিভিন্ন বিকল্প (ইনলাইন অথবা ফাইলের URL ব্যবহার করে)
- ইমেজ ফাইলের জন্য প্রয়োজনীয়তা এবং সর্বোত্তম অনুশীলন
সমর্থিত ছবির MIME প্রকারগুলি
জেমিনি মাল্টিমোডাল মডেলগুলো নিম্নলিখিত ইমেজ MIME টাইপগুলো সমর্থন করে:
- PNG -
image/png - JPEG -
image/jpeg - WebP -
image/webp
অনুরোধ প্রতি সীমা
একটি ছবিতে পিক্সেলের সংখ্যার কোনো নির্দিষ্ট সীমা নেই। তবে, বড় ছবিগুলোকে তাদের মূল অ্যাস্পেক্ট রেশিও বজায় রেখে সর্বোচ্চ ৩০৭২ x ৩০৭২ রেজোলিউশনের মধ্যে আনার জন্য ছোট করে আনা হয় এবং প্যাডিং যোগ করা হয়।
প্রতি অনুরোধে সর্বোচ্চ ফাইলের সংখ্যা: ৩,০০০টি ইমেজ ফাইল
তুমি আর কী করতে পারো?
- মডেলে দীর্ঘ প্রম্পট পাঠানোর আগে টোকেন গণনা করার পদ্ধতি শিখে নিন।
- Cloud Storage for Firebase সেট আপ করুন , যাতে আপনি আপনার মাল্টিমোডাল অনুরোধগুলিতে বড় ফাইল অন্তর্ভুক্ত করতে পারেন এবং প্রম্পটে ফাইল সরবরাহ করার জন্য একটি আরও সুসংগঠিত সমাধান পেতে পারেন। ফাইলগুলির মধ্যে ছবি, পিডিএফ, ভিডিও এবং অডিও অন্তর্ভুক্ত থাকতে পারে।
- উৎপাদনের প্রস্তুতি নিয়ে ভাবতে শুরু করুন ( উৎপাদন চেকলিস্টটি দেখুন):
- অননুমোদিত ক্লায়েন্টদের অপব্যবহার থেকে জেমিনি এপিআই-কে সুরক্ষিত রাখতে যত তাড়াতাড়ি সম্ভব Firebase App Check সেট আপ করুন ।
- নতুন অ্যাপ সংস্করণ প্রকাশ না করেই আপনার অ্যাপের মান (যেমন মডেলের নাম) আপডেট করতে Firebase Remote Config সংযুক্ত করুন ।
অন্যান্য ক্ষমতাগুলো পরীক্ষা করে দেখুন
- একাধিক পালাবিশিষ্ট কথোপকথন (চ্যাট) গড়ে তুলুন।
- শুধুমাত্র পাঠ্য-ভিত্তিক প্রম্পট থেকে টেক্সট তৈরি করুন।
- টেক্সট এবং মাল্টিমোডাল প্রম্পট উভয় থেকেই কাঠামোগত আউটপুট (যেমন JSON) তৈরি করুন ।
- টেক্সট এবং মাল্টিমোডাল প্রম্পট উভয় থেকেই ছবি তৈরি ও সম্পাদনা করুন ।
- একটি জেমিনি মডেলকে আপনার অ্যাপের অন্যান্য অংশ এবং বাহ্যিক সিস্টেম ও তথ্যের সাথে সংযুক্ত করতে বিভিন্ন টুল (যেমন ফাংশন কলিং এবং গুগল সার্চের মাধ্যমে গ্রাউন্ডিং ) ব্যবহার করুন।
কন্টেন্ট তৈরি নিয়ন্ত্রণ করার উপায় জানুন
- প্রম্পট ডিজাইন বুঝুন , যার মধ্যে রয়েছে সর্বোত্তম অনুশীলন, কৌশল এবং উদাহরণমূলক প্রম্পট।
- তাপমাত্রা এবং সর্বোচ্চ আউটপুট টোকেনের মতো মডেল প্যারামিটারগুলো কনফিগার করুন ।
- ক্ষতিকর বলে বিবেচিত হতে পারে এমন প্রতিক্রিয়া পাওয়ার সম্ভাবনা নিয়ন্ত্রণ করতে সুরক্ষা সেটিংস ব্যবহার করুন ।
সমর্থিত মডেলগুলো সম্পর্কে আরও জানুন
বিভিন্ন ব্যবহারের জন্য উপলব্ধ মডেল এবং সেগুলোর কোটা ও মূল্য সম্পর্কে জানুন।Firebase AI Logic ব্যবহারের অভিজ্ঞতা সম্পর্কে মতামত দিন।